Я нечетко сформулировал условие перевернутого варианта, соответственно Вы неправильно его поняли. В перевернутом варианте присутствуют два ИИ - один испытуемый, второй - судья. Разумность определяется для ИИ судьи. Если судья правильно распознает, где человек, а где другой ИИ - то он разумен.
А, тогда логично выглядит утверждение о разумности... на первый взгляд. Но ведь испытуемый ИИ может в свою очередь быть "слишком тупым", так что отличить его от человека не составит никакого труда. Тогда заявление о разумности судьи снова оказывается слишком поспешным. Логично снова сказать, что мы получаем лишь презумпцию разумности судьи, и при пробах с другими испытуемыми ИИ она может быть опровергнута.
Кроме того, такое употребление подразумевает, что испытуемый ИИ всегда заведомо не столь же разумен, как человек. На практике пока это так, но в теории мы этого предполагать не можем.
Теперь вопрос - а что, если в качестве и испытуемого, и судьи выступает один и тот же ИИ, только две его копии (одинаковые программы, работающие на одинаковом железе). Естественно, что проиграет либо испытуемый ИИ, либо судья ИИ. Но т.к. ИИ по сути один и тот же, то он проигрывает в любом случае.
Отсюда два возможных вывода:
1. Тест Тьюринга не адекватен.
2. ИИ никогда не достигнет разумности по тесту Тьюринга.
Что значит "проиграет"? У теста Тьюринга два различных исхода: либо судья объявляет различия найденными, либо судья объявляет испытуемых равными (случай, когда судья объявляет искусственным человека, не рассматриваем :-) ). Назовём эти исходы
![$D$ $D$](https://dxdy-04.korotkov.co.uk/f/7/8/e/78ec2b7008296ce0561cf83393cb746d82.png)
и
![$E.$ $E.$](https://dxdy-01.korotkov.co.uk/f/4/d/2/4d25e0b0e43d440c7619891f54dba48f82.png)
Теперь, возьмём ваш вариант с одним и тем же ИИ в качестве испытуемого и судьи. Его можно
рассматривать по-разному.
Если его рассматривать как критерий разумности испытуемого ИИ, то получается:
![$D\mapsto$ $D\mapsto$](https://dxdy-01.korotkov.co.uk/f/4/4/3/44364ae90529213dfff2b62bc6fcb13482.png)
заключаем, что испытуемый ИИ неразумен;
![$E\mapsto$ $E\mapsto$](https://dxdy-04.korotkov.co.uk/f/7/b/1/7b152a5463bae6d2e0a27d3a3db6802982.png)
испытуемый ИИ разумен.
С другой стороны, если его рассматривать как критерий разумности ИИ судьи, то получается:
![$D\mapsto$ $D\mapsto$](https://dxdy-01.korotkov.co.uk/f/4/4/3/44364ae90529213dfff2b62bc6fcb13482.png)
ИИ судьи разумен;
![$E\mapsto$ $E\mapsto$](https://dxdy-04.korotkov.co.uk/f/7/b/1/7b152a5463bae6d2e0a27d3a3db6802982.png)
ИИ судьи неразумен.
Итого, попросту, нельзя одновременно пользоваться двумя критериями разума! Между собой они несовместимы (*). Но если вы останавливаетесь на любом из них, то ситуация становится непротиворечивой.
Можно рассматривать тест Тьюринга в обеих формах (с судьёй-ИИ) не как определение разума, а как, опять же, всего лишь повод установить некоторую презумпцию. В конце концов, оригинальный тест Тьюринга подразумевал судью-человека. Тогда имеем для оценки испытуемого ИИ:
![$D\mapsto$ $D\mapsto$](https://dxdy-01.korotkov.co.uk/f/4/4/3/44364ae90529213dfff2b62bc6fcb13482.png)
испытуемый ИИ неразумен;
![$E\mapsto$ $E\mapsto$](https://dxdy-04.korotkov.co.uk/f/7/b/1/7b152a5463bae6d2e0a27d3a3db6802982.png)
испытуемый ИИ может быть разумен.
Для оценки ИИ судьи:
![$D\mapsto$ $D\mapsto$](https://dxdy-01.korotkov.co.uk/f/4/4/3/44364ae90529213dfff2b62bc6fcb13482.png)
ИИ судьи может быть разумен;
![$E\mapsto$ $E\mapsto$](https://dxdy-04.korotkov.co.uk/f/7/b/1/7b152a5463bae6d2e0a27d3a3db6802982.png)
ИИ судьи неразумен (или испытуемый ИИ разумен).
В таком случае, мы получаем непротиворечивые выводы, собирая сведения от обоих рассмотрений теста: в случае
![$D$ $D$](https://dxdy-04.korotkov.co.uk/f/7/8/e/78ec2b7008296ce0561cf83393cb746d82.png)
из одной оценки следует презумпция, а из другой - опровержение этой презумпции (вывод - ИИ неразумен), в случае
![$E$ $E$](https://dxdy-01.korotkov.co.uk/f/8/4/d/84df98c65d88c6adf15d4645ffa25e4782.png)
- наоборот, презумпция из другой оценки, а её опровержение - из оставшейся. Правда, в случае
![$E$ $E$](https://dxdy-01.korotkov.co.uk/f/8/4/d/84df98c65d88c6adf15d4645ffa25e4782.png)
логически допускается ещё и возможность, что ИИ разумен, если мы допускаем этот вариант при оценке судьи. То есть, в случае
![$E$ $E$](https://dxdy-01.korotkov.co.uk/f/8/4/d/84df98c65d88c6adf15d4645ffa25e4782.png)
мы делаем не однозначный вывод, а только презумпцию "ИИ неразумен", и она может быть опровергнута другими опытами.
И наконец, все эти рассуждения основаны на том предположении, что разум - вещь дискретная, и при наличии разума можно с равным успехом как говорить разумно, так и определять разумность чужих речей. Но это не обязательно так. Среди людей встречаются интраверты и экстраверты, так что можно представить себе ситуации, когда некий испытуемый ИИ "на вход" разумен, то есть умеет опознать разум и его отсутствие, а "на выход" - неразумен, то есть не может изобразить разума в общении. Или наоборот, "на выход" разумен, а "на вход" - слишком невнимателен и неаналитичен. При подстановке таких ИИ в ваш вопрос, получаем очевидные "выигрыши судьи" или "выигрыши испытуемого", не снимающие вопрос об их разумности.
Думаю, (*) - публикабельный результат (если вы его сами придумали), по крайней мере студенческого уровня.