Слухи о том, что не удается придумать общее определения интеллекта, несколько преувеличены. Например, первое что приходит в голову:
Интеллект (биологический) – косвенный механизм поддержания сложных биологических форм в эволюционном процессе, связанный с созданием моделей/проекций реальности и их использованием. Можно, конечно, это определение улучшить – но все и так представляют, что такое интеллект.
Если требуется построить искусственный интеллект, то разумное пространство поиска для него – «аксиоматические системы», всевозможные языки для описания моделей/проекций и что-то в этом духе. Ничего более мощного мне не известно. Понятно, что пущенная на самотек «эволюция» в стиле «замесить и нарубить» аксиоматические системы, ничего не даст. Поэтому, в таких случаях, стараются придумать некоторые наборы показателей, по которым одни «аксиоматические системы», языки, описания реальности, были бы предпочтительнее других. Ну не бывает поиска без критериев. Способность к правильным прогнозам, обучаемость, эффективность и т.д. – примеры таких показателей, обладание которыми позволяет нам в том или иной мере отнести некий субъект к ИИ.
Если нечто создано, то следующее типовое действие - проверка показателей на некоторые диапазоны значений (т.е. суть речь идет о проверке требований к ИИ). Такие проверки называются тестами. По результатам разработанных тестов можно условно заключить, что это «настоящий ИИ», или «ИИ на 90%» . Кстати говоря, тест Тьюринга – это в этом же духе. Тест не выдержал проверку временем, но, тем не менее, это научный тест и никак не марает его автора.
Люди, которые по части потрындеть, занимаются …. Например, открываем в wiki на странице
сильного и слабого интеллекта.
Видим раздел: требования к созданию сильного ИИ.
Находим там эти требования: «принятие решений на основе стратегий», «планирование», «обучение», и т.д. А вот теперь, если нечто сделано, как будет вестись проверка на соответствие этим требованиям? Ну, как протестировать у субъекта «принятие решений на основе стратегий»? Я точно знаю, что «принятие решений на основе стратегий» и «планирование» можно заменить на «эффективность». Которая, кстати, может использоваться не только для тестов, но и использоваться в составе критерия для автоматического синтеза ИИ.
Еще хуже «требования», которые указаны ниже: «сознание», «самосознание», «сопереживание», «мудрость». Как проверить их наличие (где же тесты а-ля Тьюринг)? Психиатров нужно созывать для каждого теста? Боюсь, что они сойдут с ума. И потом, как создавать ИИ – запрограммировать алгоритм вручную, и после каждой модификации собирать консилиум врачей? Если же речь идет о философии, то для ИИ есть и другие основы, например «идеальное», «идеи», «дух» и т.п., которые и приведут нас, в частности, на несколько абзацев выше.
Если сказанное выше верно, то ИИ в обозримой перспективе все же не будет полноценным биологическим аналогом человека. В плане интеллекта, это, видимо, будет суперпрограмма, которая сможет построить модели реальности лучше человека, и поможет решить множество проблем. Поскольку цели для ИИ все же будет ставить человек, опасность будет исходить от самого человека. Чтобы развитие технологий, и создание ИИ в частности, не кончилось концом человечества – некоторые рекламируют жесточайшую диктатуру с остановкой развития, физическим уничтожением большей части человечества и тотальным контролем (Запад, видимо, собрался пойти по этому пути). Есть и другие идеи: создание/воспитание другого антропологического типа человека (в России не мало сторонников движения в эту сторону), чтобы он что-нибудь не учудил. Речь идет о «восхождении»