Я нечетко сформулировал условие перевернутого варианта, соответственно Вы неправильно его поняли. В перевернутом варианте присутствуют два ИИ - один испытуемый, второй - судья. Разумность определяется для ИИ судьи. Если судья правильно распознает, где человек, а где другой ИИ - то он разумен.
А, тогда логично выглядит утверждение о разумности... на первый взгляд. Но ведь испытуемый ИИ может в свою очередь быть "слишком тупым", так что отличить его от человека не составит никакого труда. Тогда заявление о разумности судьи снова оказывается слишком поспешным. Логично снова сказать, что мы получаем лишь презумпцию разумности судьи, и при пробах с другими испытуемыми ИИ она может быть опровергнута.
Кроме того, такое употребление подразумевает, что испытуемый ИИ всегда заведомо не столь же разумен, как человек. На практике пока это так, но в теории мы этого предполагать не можем.
Теперь вопрос - а что, если в качестве и испытуемого, и судьи выступает один и тот же ИИ, только две его копии (одинаковые программы, работающие на одинаковом железе). Естественно, что проиграет либо испытуемый ИИ, либо судья ИИ. Но т.к. ИИ по сути один и тот же, то он проигрывает в любом случае.
Отсюда два возможных вывода:
1. Тест Тьюринга не адекватен.
2. ИИ никогда не достигнет разумности по тесту Тьюринга.
Что значит "проиграет"? У теста Тьюринга два различных исхода: либо судья объявляет различия найденными, либо судья объявляет испытуемых равными (случай, когда судья объявляет искусственным человека, не рассматриваем :-) ). Назовём эти исходы

и

Теперь, возьмём ваш вариант с одним и тем же ИИ в качестве испытуемого и судьи. Его можно
рассматривать по-разному.
Если его рассматривать как критерий разумности испытуемого ИИ, то получается:

заключаем, что испытуемый ИИ неразумен;

испытуемый ИИ разумен.
С другой стороны, если его рассматривать как критерий разумности ИИ судьи, то получается:

ИИ судьи разумен;

ИИ судьи неразумен.
Итого, попросту, нельзя одновременно пользоваться двумя критериями разума! Между собой они несовместимы (*). Но если вы останавливаетесь на любом из них, то ситуация становится непротиворечивой.
Можно рассматривать тест Тьюринга в обеих формах (с судьёй-ИИ) не как определение разума, а как, опять же, всего лишь повод установить некоторую презумпцию. В конце концов, оригинальный тест Тьюринга подразумевал судью-человека. Тогда имеем для оценки испытуемого ИИ:

испытуемый ИИ неразумен;

испытуемый ИИ может быть разумен.
Для оценки ИИ судьи:

ИИ судьи может быть разумен;

ИИ судьи неразумен (или испытуемый ИИ разумен).
В таком случае, мы получаем непротиворечивые выводы, собирая сведения от обоих рассмотрений теста: в случае

из одной оценки следует презумпция, а из другой - опровержение этой презумпции (вывод - ИИ неразумен), в случае

- наоборот, презумпция из другой оценки, а её опровержение - из оставшейся. Правда, в случае

логически допускается ещё и возможность, что ИИ разумен, если мы допускаем этот вариант при оценке судьи. То есть, в случае

мы делаем не однозначный вывод, а только презумпцию "ИИ неразумен", и она может быть опровергнута другими опытами.
И наконец, все эти рассуждения основаны на том предположении, что разум - вещь дискретная, и при наличии разума можно с равным успехом как говорить разумно, так и определять разумность чужих речей. Но это не обязательно так. Среди людей встречаются интраверты и экстраверты, так что можно представить себе ситуации, когда некий испытуемый ИИ "на вход" разумен, то есть умеет опознать разум и его отсутствие, а "на выход" - неразумен, то есть не может изобразить разума в общении. Или наоборот, "на выход" разумен, а "на вход" - слишком невнимателен и неаналитичен. При подстановке таких ИИ в ваш вопрос, получаем очевидные "выигрыши судьи" или "выигрыши испытуемого", не снимающие вопрос об их разумности.
Думаю, (*) - публикабельный результат (если вы его сами придумали), по крайней мере студенческого уровня.