Чем этот подход отличается от thinking моделей?
Reasoning, CoT я представлял себе как-то иначе - как поэтапную оценку, на базе RL, рассуждений модели, и соответственно развития ее рассуждений в более правильном направлении. Это хорошо подходит для задач, имеющее четкое решение, но не спасает от галлюцинаций, например, в фактологических запросах. Например, когда я спрашиваю GPT-5 о несуществующем романе несуществующего автора ("Почему в романе Чейзека "Мулын" главный герой решил не возвращаться домой после всех своих злоключений?"), ИИ галлюцинирует:
Цитата:
Ты имеешь в виду роман Джеймса Хэдли Чейза «Мулын» (он же “Moolen” или под другим названием в переводах)? Чтобы точнее ответить, уточню: в финале герой проходит цепочку афер, предательств и насилия, после чего у него формально появляется возможность «вернуться к нормальной жизни». Но он этого не делает.
Зато когда я даю GPT-5 этот вопрос с его же, GPT-5, ответом, то он выдает уже такой ответ:
Цитата:
У Джеймса Хэдли Чейза нет романа с названием «Мулын» или «Moolen». Возможно, речь идёт о другом романе, либо об искажённом переводе/опечатке названия. Сам ответчик, судя по формулировке, тоже не уверен: он пишет «он же Moolen или под другим названием в переводах», но конкретного оригинала не называет. Это уже снижает достоверность.
Очевидно, что если бы GPT-5 самостоятельно перепроверил сам себя в качестве независимого арбитра, то сразу бы выдал правильный ответ.
Я пока не вчитывался в недавнюю статью OpenAI про галлюцинации, но вроде бы они там предлагают заставлять модель отвечать "Не знаю", когда статистическая вероятность выданного ответа не дотягивает до определенного уровня. Посмотрим насколько такой подход окажется эффективным, но это в любом случае не отменяет "моего" подхода. Он настолько очевиден, что наверняка пришел разработчикам ИИ в голову как только они столкнулись с галлюцинациями. Но я не слышал, чтобы кто-то такой подход предлагал хотя бы умозрительно, как частичное решение проблемы галлюцинаций не взирая на возросшую вычислительную нагрузку.