Суждения человека, читавшего школьный учебник по физике, но никогда не видевшего грозу, о молнии, будут более точными, чем суждения человека, молнию видевшего, но учебников не читавшего.
Вполне вероятно. Только речь о человеке - о таком, который всего лишь не видел молнию, но видел много чего на неё похожего, поэтому может молнию представить и уточнить это представление с помощью чтения учебника. В случае ИИ дело обстоит принципиально по-другому. ИИ не только ничего не видел, но даже и ничего не читал.
Для нас книги - это та же реальность, только построенная автором из более высокоуровневых абстракций, смысл которых мы понимаем именно потому, что они связаны с низкоуровневыми образами реального мира. Но у ИИ, кроме текстов, ничего нет, он их не читает - он в них существует. Его мир - это абстракция от нашего, то есть его мир - это не реальность, а нечто упрощённое. Как следствие, такая же простота и вторичность в суждениях, стремящаяся к глупости и неадекватности.
***
Мы существуем в настоящей реальности, а также у нас есть точный критерий отделения знания адекватного реальности от знания ей не адекватного - качество жизни. Повышению качества жизни способствует только такое знание, которое адекватно реальности. Поэтому, с одной стороны, мы можем определить, в каких областях знания разбираемся хуже, а в каких лучше, отличить специалиста от не специалиста, правдоподобное от неправдоподобного или прийти к согласию. Для этого достаточно всего лишь проложить путь "от теории к практике", то есть от малопонятного и спорного к чему-то "очевидно разумному", несогласие с чем - это явное игнорирование фактов и неадекватное поведение, не способствующее росту качества жизни. А с другой стороны, как бы мы ни ошибались, в конечном итоге мы свои ошибки исправляем, так как у нас всё для этого есть - и реальность, и критерий.
Но у ИИ есть только наши тексты, которые не просто упрощение реальности, а при этом огромные массивы этих текстов могут прямо врать и утверждать противоположное - в тех областях, где ещё не всё и не всем понятно. Поэтому мир ИИ не только много проще нашего, но этот мир сам по себе неадекватен, противоречив. Откуда же с этого простого и кривого мира у ИИ появится вменяемость? Только зубодробительно вторичные суждения и перманентная бредогенерация.
Нет, не наблюдаем. Откройте SuperGLUE и обнаружите, что на некоторых треках модели людей уже обогнали.
Неадекватность мы как раз наблюдаем, а то, что она неустранима и в будущем, следует из аргументов. В моём посте речь шла о неустранимой относительно более высокой глупости и неадекватности ИИ, а не о том, что ИИ не сможет пройти какой-нибудь очередной тест, мало кому интересный, кроме самих разработчиков, так как тест пройден, а глубины, остроумия, тонкости и вменяемости у суждений ИИ не прибавляется.
Я уже приводил цитату, которая ниже, о значении таких тестов. В целом то, что ИИ проходит их лучше и лучше, приближает его не к нам, а к максимально возможной для ИИ роли простого универсального интеллектуального помощника с широким кругозором, так как прохождение тестов добавит не ума в принципиальную вторичность и простоту его суждений, а разве что чуть больше бытовой адекватности. Потому что нынешние чат-боты даже на роль такого помощника не тянут, учитывая, что нельзя заранее определить, в каких областях на их здравый смысл можно полагаться, а где проще будет подумать самому. Однако так как в целом от неадекватности суждений ИИ избавиться нельзя, то вряд ли даже роль такого помощника станет когда-нибудь для ИИ доступной.
Цитата:
"Стоит отметить, что мы немного скептически относимся к различного вида тестам для определения искусственного интеллекта. Представьте себе, высокоструктурированный тест с конкретными вопросами и ответами, которые могут весьма однозначно интерпретироваться. Это большой потенциал для умной (но не думающей) программы, которая может набраться опыта, научиться на определенных шаблонах, но никогда не сможет рассуждать самостоятельно.
Тогда возникает вопрос о том, должен ли стать интеллект просто технологической системой, достаточно сложной, чтобы правильно отвечать на вопросы, которые более сложная биологическая система (мы) установила в качестве нормативов для определения наличия мышления."
Заменит ли схема Винограда тест Тьюринга? И действительно про тест SuperGLUE пишут практически то же самое (возможно, цитата устарела, но и вы ни ссылок, ни пояснений по поводу SuperGLUE не привели):
Цитата:
"Тот факт, что DeBERTa сумел превзойти человека в бенчмарке SuperGLUE, вовсе не означает, что искусственный интеллект во всех смыслах достиг уровня людей в понимании естественного языка. В Microsoft уточнили, что человек, в отличие от машин, для решения новых поставленных перед ним задач хорошо умеет применять свои знания, полученные им в течение своей жизни при выполнении тех или иных требований и поручений. Данное свойство людей называется "композиционным обобщением".
Искусственный интеллект Microsoft превзошел людей в понимании человеческой речи Ваши доводы противоречат ...факту существования человеческой цивилизации. В её основе - письменность, это самое главное изобретение всех времен и народов. Или по меньшей мере - первая и главная информационная революция. Это доказывает, что письменный формат хранения и описания данных более чем эффективен для приумножения знаний о нашем мире. Возьмем какое-нибудь сложное чувство - любовь, например. Разве его нужно чувствовать самому, чтобы понимать? Да ничего подобного - достаточно прочитать этак с миллион реальных и выдуманных историй, чтобы лучше любой влюбленной пары постигнуть все мыслимые и немыслимые закономерности, сопряженные с этим чувством.
Так вы бы "мои доводы" взяли и опровергли явным образом. Но вы их игнорируете, ограничиваясь контраргументами, которые на поверку оказываются неверными. Вы пишете, что письменность - это хорошо. Но причиной этого у вас оказывается то, что "письменный формат хранения и описания данных более чем эффективен для приумножения знаний о нашем мире". А это неверно. "Письменный формат" нужен для хранения и передачи данных, а познание - это другое, оно как шло способом наблюдения и абстрагирования, так и идёт, письменность сама по себе здесь ничего не изменила. И наконец вы утверждаете, что чтение текстов по теме любви поможет понять любовь не хуже, чем если её самому почувствовать. Но даже если с этим не спорить, то к ИИ это всё равно отношения не имеет, ведь ИИ тексты не читает. Он в текстах существует. А это большая разница.
Восприятие - это абстрагирование, то есть наше сознание наполняют абстракции. Описание - это тоже абстрагирование, только более высокоуровневое. Абстрагирование - это отделение существенного от несущественного, то есть это более или менее субъективное упрощение воспринимаемого. В случае речи/письма в объект настолько простой, что его любой может произнести/написать, и потому передавать и хранить. К примеру, слово яблоко - это образ всех яблок сразу, движение - любого перемещения, изменения. Цифры, формулы, теории, статьи в газетах - это всё высокоуровневые абстракции, "реальный" смысл которых возникает только в контексте всего остального массива опыта, так как в опыте всё связано, а слова сами по себе никакого смысла не имеют. Поэтому, например, и обучаемся мы не на "чистых текстах", а воспринимая их связь с другим опытом, более низкоуровневым, то есть более "наглядным".
Но у ИИ никакого другого опыта, кроме наших текстов, нет. Поэтому, получается, что ИИ изначально берёт из нашего опыта только его наиболее простую часть, после чего ещё больше её упрощает, когда абстрагирует наши тексты до своих суждений. То есть на выходе получается ещё большее упрощение и так простого. Большее упрощение - это и большая неадекватность, то есть простота будет относительно больше уходить в сторону скучных и вторичных суждений и далее в сторону неадекватности, глупости, бессмысленности. Что мы и наблюдаем в чат-ботах.
Другими словами, точно так же как наш мозг в процессе абстрагирования упрощает реальность до наших суждений, точно так же ИИ в процессе абстрагирования наших суждений упрощает их до своих суждений. Поэтому суждения ИИ нашим суждениям не равны и равны быть в принципе не могут. Ничего принципиально иного из них выжать не удастся. Чат-боты много более простые сами по себе, если их сравнивать с мозгом человека, для обучения они берут простые объекты из нашего опыта и - закономерный результат.
В крайнем случае, да и то вряд ли, ИИ может недоставать визуализации - но и эта проблема скорее всего будет решена посредством обучения на огромной коллекции видео, накопленной человечеством.
"В крайнем случае, да и то вряд ли"? Однако.
Вы полагаете, раз уж тексты возникли, то ни природа, ни человек больше не нужны, так как для познания достаточно и тех текстов, которые уже есть? Вы считаете, что текстов именно сейчас стало достаточно? Вчера текстов было мало, а завтра, видимо, будет перебор? Можно упростить вопрос. Вы считаете, что текстов в принципе может быть когда-либо достаточно для познания природы?
Это риторические вопросы, я сам на них отвечу. Как понятно из сказанного выше, ИИ в любом случае лучше человека с текстами не справится, если только быстрее. Поэтому загрузить тексты в ИИ, чтобы оставалось только вопросы задавать, всё равно не выйдет. Но на самом деле достаточность для познания уже существующих текстов равносильна построению теории всего. Только построение теории всего будет означать, что никакие наблюдения уже не нужны. Но такая теория не имеет смысла. Поэтому без наблюдений не обойтись, текстов достаточно не будет никогда.
ИИ может недоставать визуализации - но и эта проблема скорее всего будет решена посредством обучения на огромной коллекции видео, накопленной человечеством.
Не будет решена эта проблема. Картинки и видео - это не реальность. К тому же в таком усложнении ИИ свои проблемы появятся. Чем ближе ИИ будет приближаться к сложности нашего интеллекта, тем стремительнее будут расти сложности по всем параметрам создания систем. Сложность нас самих - это передел, выше которого ни одна система, в создании которой участвует наш интеллект, подняться не сможет. Даже приблизиться сколько-нибудь близко не сможет.
Мы не можем написать сложный прямой алгоритм, поэтому приходится сложные задачи решать с помощью недетерминированных алгоритмов - обучения того же. Но в той степени, в какой нам работа обучающихся систем непонятна, растёт составляющая отбора. Мы не знаем, как конкретно решение возникает, поэтому приходиться оценивать адекватность систем по самим решениям. Образно говоря, не по мыслям, а по поступкам. Отбор допускает большую субъективность и разброс мнений, но в целом он точно так же ограничен нашим опытом. А это значит (опуская подробности аргументации), что когда сложность поведения ИИ станет приближаться к сложности нашего поведения, время каждого нового усложнения будет всё быстрее расти к бесконечности, так как количество вариантов того, что и как надо делать, чтобы поведение системы стало сложнее, но сохраняло приемлемую вменяемость, будет всё быстрее расти к бесконечности. Другими словами, представление о том, что и как надо делать, будет становиться всё более и более неопределённым.
И даже не просто расти к бесконечности, так как бесконечность - это всё-таки когда что-то известно, но просто вариантов много, а когда вариантов нет, то это больше, чем бесконечность. На последнем этапе приближения, до которого на практике не добраться, создание систем выйдет за рамки перебора чего-либо, неопределённость станет полной.
А что мы там чувствуем внутри себя, но не можем выразить словами - информация (с точки зрения обучения других) бесполезная.
Знание того, что "мы там чувствуем внутри себя" - это возможность предсказывать наше поведение, понимать его мотивы. Явно не бесполезная вещь.