Последний раз редактировалось Anton_Peplov 29.07.2025, 22:41, всего редактировалось 10 раз(а).
Ладно, не буду ждать. Вот обещанный ответ на вопрос epros о самосознании гипотетического робота-муравья, проходящего зеркальный тест. Попутно мне пришлось дать самодельные "определения" самосознанию, интеллекту и еще нескольким вещам, поскольку определения, найденные в "Большом психологическом словаре" под ред. Мещерякова и Зинченко, не показались мне достаточно ясными и функциональными. Ни один муравей и ни один робот в процессе рассуждений не пострадал. (Много букв)
Отказ от ответственности. Выбранная терминология и все рассуждения отражают мои дилетантские интуитивные соображения. О точке зрения науки на затронутые вопросы я знаю слишком мало, чтобы хоть что-то говорить с уверенностью. Дабы подчеркнуть, что я не пользуюсь общепринятыми в науке определениями за незнанием таковых, я буду отмечать свои термины звездочкой, вот так*. Нигде не претендую на строгость определений или глубокую продуманность концепций. Это наброски, сделанные за полчаса в ответ на интересный вопрос, заданный epros. Необходимые понятияРазобьем решаемые системой задачи на  классов  , достаточно узких, чтобы для каждого класса можно было ввести формальную метрику сложности задачи. В каждом классе возьмем сложность  самой сложной задачи, которую может решить система. Если число классов  и медиана максимальной сложности по всем классам  превосходят некоторые пороговые уровни  и  , то говорим, что система обладает интеллектом*. Значения  и  выбираем так, чтобы интеллектом* обладали LLM и животные с центральной нервной системой, включая людей, но не обладали амебы и микрокалькуляторы. Полагаю, такой выбор возможен. Самораспознание* - это способность распознать в потоке входящей информации информацию о самом себе, отличить ее от информации о других объектах. Эту информацию будем называть я-информацией*. Вообще, для самораспознания* тоже надо бы ввести какую-то метрику, но мне лень ее придумывать. Если система, обладающая интеллектом* и самораспознанием*, может пользоваться я-информацией* для решения задач из не менее чем  классов, со сложностью в  -том таком классе не менее чем  , то говорим, что система обладает самосознанием*. Понятно, что математические процедуры выбраны от балды. Я пытаюсь проиллюстрировать идею. Интеллектом* обладает тот, кто умеет достаточно успешно решать достаточно разнообразные задачи. Самосознание* - это умение достаточно успешно решать достаточно разнообразные задачи, применяя информацию о себе самом. То, что называет самосознанием уважаемый epros, я готов называть только самораспознанием*, которое является необходимым, но не достаточным признаком самосознания*. Наличие самосознания* у разных системИтак, согласно введенным терминам: - Программы
и обладают самораспознанием* (в чрезвычайно узком классе контекстов), но не обладают интеллектом*. О самосознании* речь не идет ввиду отсутствия интеллекта*.
- Система «Отвечалка + B» обладает интеллектом*, самораспознанием*, но не самосознанием*. Потому что распознаванием я-информации* занимается подсистема
, тупейшая и не передающая я-информацию* в LLM.
- GPT, Gemini и другие современные LLM обладают интеллектом* и самораспознанием*. Чтобы узнать, обладают ли они самосознанием*, нужно разработать сложные тесты: разбить задачи на классы, ввести метрики сложности, насовать в каждый класс несколько задач разной сложности, использующих я-информацию*. Наблюдение «я упомянул тупого бота, и он понял, что речь о нем» говорит только о самораспознании*, но еще не о самосознании*.
Я сильно подозреваю, что самораспознание* реализовано во всех этих LLM примерно так же тупо, как в системе «Отвечалка + B». Т.е. там скрипты, дающие заготовленные ответы на вбитые руками в код паттерны и не задействующие собственно LLM. Тут mihaild лучше ответит. Если я прав, то достаточно хороший тест на самосознание* все эти джипити не пройдут. Но годовой доход я на это не поставлю.
- Зеркальный тест (для живого муравья или робота-муравья) – это тест на самораспознание*, которое, напомню, является необходимым, но не достаточным признаком самосознания*.
- Протестировать живого муравья или робота-муравья на самосознание* - это очень сложная работа, и я не думаю, что такие тесты вообще кто-то уже придумал. Надо понимать, что зеркальным тестом пользуются не от хорошей жизни. Это просто лучшее по соотношению «цена/качество», что мы придумали для применения к муравьям и прочим макакам. Но если у нас нет хороших тестов, стоит исходить из разумных гипотез.
- Разумная гипотеза для живого муравья состоит в следующем. Если у него есть самораспознание*, значит, оно обеспечивало репродуктивный успех. Либо я-информация* используется в узком круге задач, тесно связанных с половым размножением (грубо говоря, обворожить будущую королеву), либо в широком круге задач, повышая шансы на благоденствие муравейника в целом и, следовательно, репродуктивный успех его королевы. Вторая гипотеза кажется мне намного более естественной. А из нее почти наверняка следует, что у муравьев есть самосознание*.
- Обнаружив робота-муравья, проходящего зеркальный тест на самораспознание*, и не имея тестов, чтобы протестировать его на самосознание*, я бы прежде всего спросил разработчиков, как работает его самораспознание*. Если эту функцию прикрепили на шуруп, забитый молотком, и подперли снизу костылем, как программу
к «Отвечалке», то разумная гипотеза состоит в том, что у робота нет самосознания*. Если же программисты сами в шоке, что робот проходит зеркальный тест, то разумная гипотеза состоит в том, что у робота есть самосознание* (что не слишком удивительно для фантастического робота, правдоподобно копирующего сложное поведение муравья). Если ответ программистов где-то посередине, то у меня, пожалуй, нет гипотезы, есть ли у такого робота самосознание*. В любом случае окончательное слово за тестами, которые еще только предстоит разработать.
А сейчас придет Ghost_of_past и по винтику разнесет мои велосипеды с квадратными колесами.
|