2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки





Начать новую тему Ответить на тему
 
 Обсуждение и ссылки по теме безопасности ИИ
Сообщение27.02.2017, 19:57 


17/03/15
6
Всем добрый день! Я не так часто читаю русскоязычные сайты и форумы, но недавно меня посетила мысль проверить, сколько качественного материала по вопросам построения "безопасного" искусственного интеллекта лежит на родных просторах интернета. Результаты оказались удручающими. В Рунете об этой теме, кажется, почти никто не слышал, и в российской академии нет людей, которые бы занимались этими проблемами. В довершение всего, статьи по теме в СМИ, мягко говоря, не блещут качеством, а переведённого материала мало.

Ниже я выкладываю ссылки на хорошие переведённые материалы, которых немного, а также главные англоязычные блоги, сайты организаций и учебные планы, которые помогут вам вникнуть во всю непомерную важность и сложность решения кластера проблем, что приведёт нас к возможности создания Дружественного ИИ.

Вопросы и обсуждения в теме всячески приветствуются. И нет, Friendly AI не имеет никакого отношения к Терминатору; суть - набор серьёзных математических проблем, многие из которых пока имеют решения даже в теории. Вообще, я заметил, что первоначальная реакция на эту область является хорошим показателем навыков рационального, критического мышления.


Материалы на русском:

Книги и статьи:
Бостром Н. - Искусственный интеллект. Этапы, угрозы, стратегии
Перед лицом Сингулярности
LessWrong (сайт о рациональности Элиезера Юдковского, основоположника концепции Friendly AI)
Статьи Тима Урбана с Wait But Why: Часть 1, Часть 2 (замечания, сделанные специалистом в области)

Видео (с русскими субтитрами):
What happens when our computers get smarter than we are? | Nick Bostrom
Can we build AI without losing control over it? | Sam Harris
Публичная лекция с Демисом Хассабисом из Google DeepMind


Материалы на английском:

Организации:
Machine Intelligence Research Institute (FAQ)
Future of Humanity Institute (University of Oxford)
Centre for the Study of Existential Risk (University of Cambridge)
Future of Life Institute

Люди, блоги, форумы:
http://www.nickbostrom.com | Nick Bostrom
http://yudkowsky.net | Eliezer S. Yudkowsky
https://medium.com/ai-control | Paul Christiano
https://people.eecs.berkeley.edu/~russe ... rch/future | Stuart Russell
LessWrong | Community blog

https://slatestarcodex.com | Scott Alexander:
AI researchers on AI risk
No time like the present for AI safety work
How does recent AI progress affect the Bostromian paradigm
Notes from the Asilomar conference on beneficial AI

Intelligent Agent Foundations Forum

Учебные планы:
A Guide to MIRI’s Research
AI Safety Syllabus
Annontated bibliography of recommended materials - Center for Human-Compatible AI (UC Berkeley)

Introductory Resources on AI Safety Research

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ 1 сообщение ] 

Модераторы: Toucan, maxal, Karan, PAV, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group