Исследователи AI Futures Project опубликовали прогнозы применения сверхчеловеческого ИИ. В телеграм-канале "Сиолошная" написали:
На этой неделе вышел очередной текст с прогнозами развития искусственного интеллекта: "AI 2027 (
https://ai-2027.com/)" (pdf-версия (
https://ai-2027.com/scenario.pdf)). Мне он, правда, совсем не кажется "очередным", в основном из-за списка авторов. Так что суммаризировать я его для вас не буду (текст совсем не длинный, рекомендую прочитать целиком), а лучше про этих самых авторов расскажу.
Первый автор, Даниэль Кокотайло — это бывший сотрудник OpenAI. Два самых для нас важных факта про него связаны как раз с этим трудоустройством:
— OpenAI нанял Даниэля после того, как в 2021 году он написал статью "What 2026 Looks Like (
https://www.alignmentforum.org/posts/6X ... looks-like)", где предсказал, как будут развиваться большие языковые модели; сейчас этот текст читается потрясающе, Даниэль оказался прав очень во многом, хотя в 2021-м его прогноз выглядел маловероятно, а для многих и безумно; так что Даниэль Кокотайло — один из лучших людей мира в плане прогнозов о развитии AI;
— а когда в 2024-м Кокотайло увольнялся из OpenAI, он оказался в центре скандала с non-disparagement clause (
https://www.nytimes.com/2024/06/04/tech ... owers.html): OpenAI пригрозил ему тем, что не даст продавать акции OpenAI, если Кокотайло будет что-то разглашать о рисках развития AI, и Даниэль... плюнул на акции, чтобы стать whistleblower'ом от AGI (говорят (
https://www.reddit.com/r/singularity/co ... y_all_the/), в акциях OpenAI было около 85% всех денег его семьи).
Второго автора, надеюсь, моим читателям представлять не надо: это Скотт Александр, автор знаменитых блогов SlateStarCodex (
https://slatestarcodex.com/) и AstralCodexTen (
https://www.astralcodexten.com/). Если вы вдруг их не читали, начинайте прямо сейчас (можно начать отсюда (
https://slatestarcodex.com/top-posts/) или отсюда (
https://guzey.com/favorite/slate-star-codex/)), хотя навёрстывать придётся много. В связи с "AI 2027" Даниэль Кокотайло и Скотт Александр уже успели появиться в подкасте Дваркеша Пателя (
https://www.youtube.com/watch?v=htOvH12 ... rkeshPatel), который я тоже, конечно, целиком рекомендую.
Другие авторы не так известны широкой публике; это:
— Томас Ларсен, сооснователь Center for AI Policy (
https://www.centeraipolicy.org/);
— Илай Лифланд (
https://www.elilifland.com/), один из лидеров команды прогнозистов Samotsvety (
https://samotsvety.org/), один из тех самых superforecasters (
https://www.goodreads.com/book/show/239 ... orecasting), которые умеют прогнозировать будущее лучше кого бы то ни было;
— Йонас Фоллмер, VC в Macroscopic Ventures (
https://macroscopic.org/), которому хватило предсказательной силы сделать одну из ранних инвестиций в Anthropic;
— Ромео Дин, магистрант Гарварда и руководитель тамошнего AI Safety Student Team (
https://haist.ai/).
В общем, очень внушительная команда. И сейчас все они считают, что вполне реально ожидать появления AGI к 2027–2028 годам. Если гонка разработок в области AGI в итоге победит заботу о безопасности (вам это кажется правдоподобным? мне — вполне), то примерно в 2030–2035 годах нас ждёт тот самый AI takeover, сценарий захвата мира искусственным интеллектом. Это их "плохая концовка", но в тексте предусмотрена и "хорошая", в которой люди сохраняют контроль над ситуацией. Впрочем, в хорошей концовке AGI тоже появляется и тоже трансформирует мир и общество до неузнаваемости.
Читать очень интересно. В интернете этот текст уже начали называть "Situational Awareness 2.0"; прошлогоднюю "Situational Awareness (
https://situational-awareness.ai/)" Леопольда Ашенбреннера я в каждой обзорной лекции упоминаю, теперь, видимо, надо будет упоминать и "AI 2027 (
https://ai-2027.com/)".
Документ представляет собой футуристический сценарий развития событий вокруг создания сверхразумного ИИ до 2030 года. Экспертами обозначены основные тезисы:
• Быстрое развитие технологий. В данном сценарии описывается стремительное улучшение возможностей ИИ, начиная с персональных ассистентов и заканчивая системами, способными превзойти человека во всех когнитивных задачах.
• Угрозы безопасности. Рассматриваются риски утечки данных, взлома систем и других угроз, связанных с использованием мощных ИИ-систем.
• Экономические изменения. Эксперты описывают радикальные экономические преобразования, включая создание «роботизированной экономики».
• Геополитическая конкуренция. Усиление гонки вооружений между США и Китаем, где обе стороны используют передовые технологии.
• Проблемы управления и контроля. Обсуждаются вопросы о том, кто будет контролировать мощные ИИ-системы и как предотвратить их использование в целях, угрожающих человечеству.
• Социальные последствия. Сценарий рассматривает возможные социальные изменения, такие как массовая автоматизация, рост неравенства и появление новых форм власти.
Документ подчеркивает важность своевременных решений и усилий по обеспечению безопасного и ответственного развития ИИ для предотвращения негативных сценариев. В нем также рассматриваются два основных сценария будущего развития событий, связанных с созданием сверхразумного ИИ: гонки или замедления.