Может быть осмысление возможно через статистические текстовые закономерности обучающего дата-сета, при помощи которых LLM предсказывает каждое следующее слово в диалоге с пользователем?
Ответ на ваш вопрос — нет. Потому что статистика всегда имеет погрешность, по отношению к оригинальному процессу. Поэтому ИИ не сможет понимать смысл текстов человека ни глубже самого человека, ни хотя бы так же.
То же самое можно сказать по-другому. Слова сами по себе ничего не значат, это просто звуки или закорючки на бумаге. Поэтому смысл слов лежит за рамками слов. Например, это значит, что никакого языка для описания работы мозга не хватит. Но у вас везде язык, начиная от самого ИИ как вычислительной системы и заканчивая статистикой текстовых закономерностей.
Как, к примеру, моделируется мозг? Собирается статистика активности нейронов из моделируемого участка мозга по некоторой выборке, включая рост связей, так как они в мозге постоянно растут и отмирают. Прямого способа нет, так как глубоко в живой мозг, а тем более в нейрон не заглянешь, в мёртвом смотреть нечего, при этом в реальном мозге все нейроны, даже нейроны одного типа, более или менее разные. В итоге всё, что удалось узнать, обобщается в модель. Поведение этой модели в среднем похоже на оригинал, поэтому можно исследовать какие-то общие закономерности, в медицинских целях, например. А теперь представьте человека, поведение которого только в среднем соответствует условиям. Не логически точно, а только лишь в среднем, относительно поведения реальных людей. Это страх и ужас будет.
И наконец можно сказать так. Реальный мир всегда сложнее его описания. Как минимум пока не создана теория всего, до которой, мягко говоря, далеко (точнее, она не может быть создана, но чтобы не спорить). Таким образом, сложность среды, в которой существует человек, качественно сложнее среды, в которой существует ИИ. Поэтому сложность поведения ИИ может только бесконечно приближаться к сложности поведения человека, а сложность поведения человека к сложности условий среды.
Или сказать так. ИИ существует «внутри» опыта людей, так как создаёт и обучает его человек. В то же время сам ИИ развиваться не сможет, так как он не диссипативная структура. ИИ среда только разрушает, диссипативные структуры среда создаёт, поэтому эволюционировать и самосохраняться умеют только они. В итоге, опять же, сложность поведения ИИ может только бесконечно приближаться к сложности поведения человека.
С учетом последнего, ваше утверждение, что
"ИИ всегда будет не более чем помощником, способным выполнять простую интеллектуальную работу" мне представляется особенно спорным. В том числе аргументация:
Сложность нас самих — это принципиальный предел сложности любого создаваемого нами объекта или знания, к которому можно бесконечно приближаться, но на практике всегда оставаясь далеко от него.
По этой логике Ньютон не мог быть умнее своих преподавателей физики в Кембридже. Да, он "всего лишь карлик на плечах гигантов" - но этими гигантами он называл то, что сейчас выступает в качестве обучающего текстового дата-сета. Тогда что мешает большой языковой модели, которая проанализировала всю доступную текстовую информацию (в том числе десятки миллионов научных публикаций), подобно Ньютону выйти за пределы сложности своих учителей?
Это похоже на аргумент, что человек умеет создавать равное себе по сложности и даже сложнее себя, так как дети рождаются и могут быть умнее родителей. Только детей создаём не мы, а природа. Мы всего лишь запускаем механизм морфогенеза, работу которого не понимаем. То же самое с вашим «аргументом». Вы вначале создайте такую систему, которая будет содержать тот же объём заданного заранее, сколько содержит мозг человека, тогда и обучить её чему угодно человеческому проблем не будет.
1) возникнет ли в ИИ самосознание (спонтанно или по задумке разработчиков),
Самосознание в ИИ уже «возникло», по крайней мере в рекуррентных сетях, но, естественно, самосознание в ИИ никогда не возникнет и в рекуррентных сетях тоже. На этом можно бы и закончить, так как, по-моему, всё понятно. Если только пару абзацев.
ЕИ — это упорядоченный континуум веществ и химических реакций. Сложно организованный бурлящий объём, проще говоря. Объём неравновесный, то есть целостный, реагирующий как одно целое. Поэтому и сознание, которое тоже есть упорядоченный континуум, где-то в непредставимой глубине такого объёма может быть. Но ИИ — это программа, последовательность шагов вычислительных операций. Никакого неравновесия, никакой целостности, никакого объёма. Откуда там сознание?
Но если вы понимаете «самосознание» как возможность интроспекции, самонаблюдения, то это уже есть в рекуррентных сетях. Вначале что происходит у человека. Разговор с самим собой, например. Распознавая общие признаки условий (то есть формируется активность мышц общего характера), подкорковые отделы задают общее направление распознаванию в коре (где формируется речь, письмо). Уточняя его до конкретных фраз и образов, в том числе интроспективных — обозначающих себя, кора по обратным связям влияет на подкорковые отделы, внося в их работу соответствующие словам изменения. Это воспринимается субъектом как некоторое новое эмоциональное состояние, так как эмоции суть отражение общего направления поведения, которое формируется подкоркой. Одновременно подкорковые отделы задают новое общее направление распознаванию в коре, которое приводит к новым конкретным фразам и образам. В итоге субъект и эмоционально понимает себя, и соответственно этому пониманию в его сознании возникают новые слова и образы. И так размышление продолжается, пока опыт и условия не приведут к смене поведения.
Что у сетей. Верхние уровни рекуррентной нейронной сети конвергируют сигналы нижних уровней в сигналы логически более точного характера, после чего их обратное влияние на нижние уровни будет приводить к новой конвергенции и так далее — аналогично разговору с самим собой, описанному выше. Смысл этой конвергенции может, к примеру, отражать «плохое» или «хорошее» состояние системы, управляющим элементом которой является нейронная сеть. В результате, распознавая это состояние, нейронная сеть будет как будто «ощущать» плохое или хорошее «настроение», соответствующим образом реагировать и менять его аналогично тому, как мы можем изменить своё настроение, вспоминая что-то хорошее или плохое.
Естественно, что само наличие этой способности не означает появление у такой нейронной сети какого-либо сознания, так как они — см. выше — это другое.