Во-первых, любую информацию чат-ботов, тем более о себе, надо воспринимать критически. Та же Anthropic недавно продемонстрировала, что LLM объясняет ход своих мыслей не так, как думает на самом деле. Опять же потому, что в основе предсказания следующих токенов лежат статистические закономерности текстов, на которых LLM обучалась - а не реальное понимание самой себя (что, по мнению некоторых специалистов, служит доказательством отсутствия у LLM сознания).
Да, конечно, инфа далеко не 100%. Но хоть что-то.
ChatGPT, пишет, что у него нет токенов эмоциональной разметки. При этом про свою архитектуру он рассказывает довольно бодро, а про детали пишет, что не публиковались.
Что касается того, что если не может рассказать, как думает - то не думает, так и люди на это не особо способны.
Во-вторых, я не уверен, что эмоции можно называть мыслительным процессом, пусть и низкоуровневым.
Эмоции живут в лимбической системе, а не в неокортексе. Лимбическая система развилась у млекопитающих до развития сознания. Просто они - более древние психические процессы. Называть ли их мыслительными - может быть и нет, как вам нравится. Неосознанные - точно. Но осознаваемые сознанием результаты этих процессов.
Интуиция - это тоже какие-то параллельные неосознанные психические процессы, но, наверное, выше уровнем. Эмоции животны, глупы и про очень многое им неведомо, хоть, действительно, они важны для того, чтобы человек был человеком, и часто именно они определяют сознательный выбор. Человек не только сознание, но и более примитивные психические реакции.