Всем добрый день! Я не так часто читаю русскоязычные сайты и форумы, но недавно меня посетила мысль проверить, сколько качественного материала по вопросам построения "безопасного" искусственного интеллекта лежит на родных просторах интернета. Результаты оказались удручающими. В Рунете об этой теме, кажется, почти никто не слышал, и в российской академии нет людей, которые бы занимались этими проблемами. В довершение всего, статьи по теме в СМИ, мягко говоря, не блещут качеством, а переведённого материала мало.
Ниже я выкладываю ссылки на хорошие переведённые материалы, которых немного, а также главные англоязычные блоги, сайты организаций и учебные планы, которые помогут вам вникнуть во всю непомерную важность и сложность решения кластера проблем, что приведёт нас к возможности создания Дружественного ИИ.
Вопросы и обсуждения в теме всячески приветствуются. И нет, Friendly AI не имеет никакого отношения к Терминатору; суть - набор серьёзных математических проблем, многие из которых пока имеют решения даже в теории. Вообще, я заметил, что первоначальная реакция на эту область является хорошим показателем навыков рационального, критического мышления.
Материалы на русском:Книги и статьи:Бостром Н. - Искусственный интеллект. Этапы, угрозы, стратегииПеред лицом СингулярностиLessWrong (сайт о рациональности Элиезера Юдковского, основоположника концепции Friendly AI)
Статьи Тима Урбана с Wait But Why:
Часть 1,
Часть 2 (
замечания, сделанные специалистом в области)
Видео (с русскими субтитрами):What happens when our computers get smarter than we are? | Nick BostromCan we build AI without losing control over it? | Sam HarrisПубличная лекция с Демисом Хассабисом из Google DeepMindМатериалы на английском:Организации:Machine Intelligence Research Institute (
FAQ)
Future of Humanity Institute (University of Oxford)
Centre for the Study of Existential Risk (University of Cambridge)
Future of Life InstituteЛюди, блоги, форумы:http://www.nickbostrom.com | Nick Bostrom
http://yudkowsky.net | Eliezer S. Yudkowsky
https://medium.com/ai-control | Paul Christiano
https://people.eecs.berkeley.edu/~russe ... rch/future | Stuart Russell
LessWrong | Community blog
https://slatestarcodex.com | Scott Alexander:
AI researchers on AI risk No time like the present for AI safety work How does recent AI progress affect the Bostromian paradigm Notes from the Asilomar conference on beneficial AIIntelligent Agent Foundations ForumУчебные планы:A Guide to MIRI’s ResearchAI Safety SyllabusAnnontated bibliography of recommended materials - Center for Human-Compatible AI (UC Berkeley)
Introductory Resources on AI Safety Research