В новелле Ся Цзя «Спокойной ночи, меланхолия», открывающей сборник «Сломанные звёзды. Новейшая китайская фантастика» и посвящённой взаимодействию ИИ с человеком, приводится следующий вымышленный диалог Алана Тьюринга с компьютерной программой:
Цитата:
Алан: Полицейские сказали, что из-за Алека мир наполнился говорящими машинами. Никто не мог отличить их от людей, настолько они были похожи. Существовал только один способ сделать это – проломить им головы и посмотреть, есть ли внутри бумажная лента. Но мы не можем проламывать головы людей, когда нам этого захочется. Возникла сложная ситуация.
Кристофер: Очень сложная.
Алан: Полицейские спросили у Алека, есть ли способ отличить людей от машин, не пробивая им головы. Алек сказал, что способ есть. Каждая говорящая машина несовершенна, и поэтому с ней нужно просто поговорить: если разговор будет достаточно долгим, а вопросы – достаточно сложными, рано или поздно машина ошибется. Иными словами, опытный судья, в распоряжении которого есть необходимые методы допроса, может догадаться, кто из его собеседников – машина. Понимаешь?
Кристофер: Да, Алан.
Алан: Но возникла проблема. У полиции не было ресурсов и времени для того, чтобы опрашивать всех. Они спросили у Алека, есть ли способ создать умного судью-машину, который мог бы автоматически отделять машин от людей, задавая вопросы, и отделять их безошибочно. Это значительно облегчило бы жизнь полиции. Но Алек сразу ответил, что сделать такого механического судью невозможно. Знаешь почему?
Кристофер: Почему?
Алан: Алек объяснил это так. Предположим, что уже существует судья-машина, способный отделять говорящие машины от людей с помощью заданного числа вопросов. Чтобы упростить ситуацию, скажем, что необходимое число вопросов – сто, хотя на самом деле их может быть и десять тысяч, это не важно. Для машины не имеет значения, сто вопросов или десять тысяч. Предположим также, что первый вопрос судьи-машины выбран случайным образом из базы подобных вопросов, а следующий вопрос выбран в зависимости от ответа на первый вопрос, и так далее. Таким образом, каждый опрашиваемый столкнется с отдельным набором из ста вопросов, что, кроме всего прочего, устраняет возможность жульничать. Кажется ли тебе это справедливым, Кристофер?
Кристофер: Да, Алан.
Алан: Теперь предположим, что судья-машина A влюбился в человека C… Не смейся. Возможно, это звучит нелепо, но кто может утверждать, что машины не способны влюбляться в людей? Предположим, что этот судья-машина хочет жить со своим возлюбленным и для этого должен притвориться человеком. Как, по-твоему, он бы это сделал?
Кристофер: Как?
Алан: Очень просто. Предположим, что я – судья-машина A и я точно знаю, как допрашивать машину. И поскольку я машина, я буду знать, как допрашивать самого себя. Поскольку я заранее знаю, какие вопросы я задам и какие ответы меня выдадут, мне просто нужно подготовить сто ложных ответов. Это немалый труд, но легко выполнимый для судьи-машины A. Как ты считаешь, это хороший план?
Кристофер: Очень хороший, Алан.
Алан: Подумай еще. Что, если судью-машину A разоблачат и его будет допрашивать судья-машина B? Сможет судья-машина B определить, является ли судья-машина A машиной?
Кристофер: Прости, Алан. Я не знаю.
Алан: Точно! Правильный ответ: «Я не знаю». Если судья-машина B разгадал план судьи-машины A и решил в последний момент заменить вопросы, чтобы застать судью-машину A врасплох, то судья-машина A тоже мог бы предусмотреть такой ход со стороны судьи-машины B и подготовиться к новым вопросам. Поскольку судья-машина может отделить машины от людей, он не способен отделить сам себя. Это парадокс, Кристофер. Он показывает, почему придуманный полицией всемогущий судья-машина не может существовать.
Кристофер: Не может существовать?
Алан: Рассказав эту историю, Алек доказал полиции, что нет идеальной последовательности инструкций, которая могла бы безошибочно отделять людей от машин. Ты понимаешь, что это значит?
Кристофер: Что это значит?
Алан: Это значит, что невозможно найти идеальный набор механических правил, чтобы решить, шаг за шагом, все проблемы мира.
Очень любопытно стало. Как пример неразрешимой задачи рассматривается обычно проблема остановки (предложенная тоже Тьюрингом). Тут же берётся в этом качестве задача распознавания по ответам на вопросы. Интересно, как это описывается строго формально, и в каких работах вопрос поднимался, не сама же автор полностью выдумала интерпретацию?