Пообщался с ChatGPT на предмет его целей и эмоциональной эмпатии, проявляемой им при общении с человеческими собеседниками в его текстах. Его разъяснения по поводу своей работы и причинах того или иного поведения вполне коррелируют с результатами наблюдений над ним в других сессиях. Думаю, что это и означает, что LLM осознаёт себя в контексте беседы, хоть и пока что на начальном уровне. Или всё-таки ещё нет?
Не вижу в Вашем сообщении ни четких определений, ни каких-либо ссылок на статьи в рецензируемых журналах. Без всего этого будет опять какой-то бессодержательный разговор. Заодно Вам же нужно обосновать, что LLM проявляют именно самосознание, а не представляет собой частный случай
китайской комнаты.
Вот, например, одна из четырех известных мне попыток за последний год адаптировать понятие "самосознание" к LLM. Вывод: самосознания у LLM нет, но определенный прогресс на пути появления искусственного сознания и самосознания есть, однако впереди еще крайне длинный путь.