Цитата:
Пообщался с ChatGPT на предмет его целей и эмоциональной эмпатии, проявляемой им при общении с человеческими собеседниками в его текстах. Его разъяснения по поводу своей работы и причинах того или иного поведения вполне коррелируют с результатами наблюдений над ним в других сессиях. Думаю, что это и означает, что LLM осознаёт себя в контексте беседы, хоть и пока что на начальном уровне. Или всё-таки ещё нет?
Для начала уточним слова. Под "самосознанием" вероятно следует понимать способность системы распознавать себя как отдельную сущность в контексте "мировоззренческой метамодели", то есть иметь модель своих состояний, отличать "Я" от "не-Я" в виде агента в "большом едином мире", что-то такое, а не просто память контекста беседы. Основа сознания – тн. "субъективный опыт", то есть динамический цикл опроса сенсоров, внутренних состояний и моделирования отдельных аспектов всей метамодели, этого у LLM пока нет и не должно быть, исходя из их целей и архитектуры.
Технически LLM (типа ChatGPT) – это сложные предсказатели слов (токенов). Их ядро – архитектура Трансформер, по сути не хитрый костылик в дополнении к MLP. Они обучены на гигантских текстах с одной целью: предсказать следующее(или внутри или группу) слово в последовательности. Всё их поведение – функциональные ответы, а юмор, объяснения – это результат статистического расчета, но не внутреннего "переживания", то есть циклического восприятия, своих внутренних состояний.
Да, их ответы о себе часто логичны и согласуются. Но это лишь следствие их тренировки на данных, где описания работы ИИ были последовательны. Они генерируют текст, который статистически соответствует ожидаемому описанию их работы, а не рефлексируют. Это обучающие тексты были логичны и последовательны, точнее люди которые их написали.
Их эмпатия и юмор – это виртуозная имитация паттернов поддержки из человеческих диалогов. Система предсказывает, какие слова уместны в контексте запроса о проблеме, но не испытывает чувств и нет никакой обедняющей составляющей всей этой мозайки из данных в нечто единое. Это ближе к сценарию, чем к сопереживанию.
Зоны в мозгах вроде Брока/Вернике занимаются похожим языковым предсказанием. Но весь мозг – это сотни взаимосвязанных модулей, обрабатывающих ощущения, эмоции, тело. Он существует в непрерывном цикле: восприятие (внешнее + ВНУТРЕННЕЕ состояние) -> предсказание -> действие -> обратная связь.
У LLM нет этого "цикла жизни": нет тела, внутренних ощущений (голод, боль), сенсорного потока. Нет динамической модели физического "Я" в мире. Их "опыт" – это текст, а не живое восприятие. Но именно этот цикл и внутреннее состояние – основа субъективного опыта.
Ключевое отличие: LLM не имеют устойчивой модели себя как агента, активного игрока в реальном МИРЕ. Фразы "Я – ИИ" – это предсказанные токены в ответ на запрос, а не доступ к внутреннему состоянию. У них нет "Я", которое можно осознавать вне генерации текста по запросу.
Поэтому, несмотря на впечатляющую имитацию, текущие LLM не обладают ни сознанием, ни тем более самоосознанием. Их "понимание" себя – это красивая симуляция, построенная на шаблонах данных, отличие подобно основе того что показано цифровой графикой в кинофильмах в сравнении с тем что снимали в реальных съёмками. То есть они – сложные зеркала, отражающие наши языковые паттерны, но без внутреннего света сознания. Убедительная симуляция разума – это еще не разум. То есть эта та самая Китайская Комната, пр которую все говорят.
Но тем не мене это ооочень полезная штука, по масштабности полезности сравнимая с интернетом, а может даже с электричеством. Но это не СИИ и не такое значительное к нему приближение, как это сейчас кажется. Разговоры про СИИ в 2030м — хайп и маркетинг. Конечно всё это будет дальше семимильными шагами развиваться, рынок труда изменится, но Эйнштейном или Ньютоном LLM не станет.