Давайте тезисно, а то в этом большом неструктурированном тексте можно утонуть.
1) Мой тезис об элитах и недоумках пытается донести до вас простую истину: достижения человеческой цивилизации, с её креативностью, изобретениями, открытиями и т.д. образует очень немногочисленная прослойка "культурных героев", которые я условно назвал элитами. Остальные не недоумки - они просто исполнители. Многих из которых ИИ способен заменить уже сегодня и уж точно заменит в будущем.
2) Недоумков я вспомнил исключительно в порядке опровержения вашего заявления о постоянном обучении человека. Увы и ах - средний человек до самой смерти будет упорствовать в своих заблуждениях, и ему это ничего не стоит - от креациниостов, плоскоземельщиков и опровергунов полета американцев на Луну до банальной конспирологии. Имя им - легион. Поэтому тысячу раз был прав реальный или мнимый Джонатан Свифт, который в известной пьесе Горина опровергал тезис "Человек - разумное существо" тезисом "Человек - существо ВОСПРИИМЧИВОЕ к разуму". Это я вовсе не в порядке брюзжания о человеческих пороках - это так на самом деле. Так вот человеческую цивилизацию вперед двигают именно те немногие люди, что реализовали свою восприимчивость к разуму. Остальные конечно тоже обучаемы, в той или иной степени - но в той или иной степени ИИ был обучаем еще 10-15 лет назад. Распознаванию котиков или управлению автомобилей, например. В том смысле, что ему скармливали некий опыт, а ИИ из этого опыта извлекал закономерности, которые применял к новому опыту - чем не обучение? Так какие основания считать, что по мере прогресса в этой области ИИ не начнут обучать обнаружению более
сложных общих закономерностей, не научат быть более интерактивным (задавать вопросы, искать недостающую информацию, нанимать исполнителей) и т.д.?
3) Вы ошибаетесь, когда утверждаете, что
в ИИ всё вычислимо и предсказуемо, и принятие «конкретных решений» ничем не выделяется. Берёте ручку, бумагу, всё расписываете, какой вход, какое обучение, — и будет вам ваше «конкретное решение». В тридесятый раз вам повторяю, что ИНС часто называют черным ящиком - механизм принятия
конкретных решений в нем непонятен. И лишь несколько недель и дней назад стали выходит научные работы, которые внушают надежду на понимание этого механизма в будущем.
4) Когда вы вновь и вновь повторяете о невозможности ИИ достигнуть сложности человека, это вызывает только недоумение. Потому что мера сложности человека различается в диапазоне от пускающего слюни идиота до гениального ученого. Посередине между которыми - миллиарды посредственных интеллектов. Любая отдельно взятая библиотека содержит знаний заведомо больше любого отдельного взятого человека - поэтому машина, способная только извлекать эти знания (а LLM как раз про это) будет умнее человека. Умнее в смысле решения заданных ей интеллектуальных, в традиционном понимании, задач, конечно - а не поглощения пищи в библиотечной столовой с её последующим перевариванием и выводом из организма...
Когда вы говорите
сколько бы библиотек текстов ни знал ИИ, в каком бы количестве областей знания ИИ ни разбирался, он всё равно не достигнет сложности человека, так как он алгоритм, а любой алгоритм сам по себе качественно проще нас - это тоже вызывает недоумение. "Качественно проще нас" алгоритмы многократно превосходят любого человека в игре го. Или превосходят абсолютное большинство людей на Земле в решении задач по геометрии международной школьной олимпиады по математике. А по оценкам одного ведущего специалиста одной ведущей компании, разрабатывающей ИИ, эти "качественно проще нас" алгоритмы лет через пять превзойдут в программировании и его самого. Как так? В чем же проявляется эта сложность человека - только не в категориях абстрактной философии про гомеостаз, а на практике? В способности к обучению? Но вынужден повторить:
1) Способность человека к обучению сильно преувеличена
2) Необучаемый ученый многократно превосходит своим интеллектом обучаемого школьника
3) Обучение ИИ не представляется чем-то невероятным и может быть реализовано: как минимум - через обновление, а как максимум - через самообновление (когда различные агенты ИИ занимаются сбором новых данных и информации, файнтюнингом, улучшением исходного кода основной модели и т.д.) Только давайте не будем в очередной раз "когда будет, тогда и поговорим" ("Вы находитесь >>ЗДЕСЬ<<") - это реальная перспектива. Не верите - ну ради бога, тогда см. про минимум: обучение ИИ через его обновление людьми-разработчиками. Это как если бы регулярно клонировали Эйнштейна, но каждый раз делали его умнее.
Что вы понимаете под сложностью человека тоже не очень понятно. Фабрики РНК в наших клетках, например, тоже очень сложные - но при чем тут мышление? Электро-химические реакции в нашем мозге? А с чего вы взяли, что они сложнее математических вычислений в трансформере? И какая вообще связь между степенью сложностью субъекта и его эффективностью в решении тех или иных задач? Самолет намного проще птицы - но летает гораздо дальше, выше и быстрее.
Беда в том, что погрязнув во всей этой абстрактной философии, вы похоже не утруждаете себя узнаванием того, что происходит здесь и сейчас. Простая хронология. Буквально на днях Франсуа Шолле анонсировал бенчмарк, который, по его словам, для LLM недостижим. И действительно - все доступные мне чат-боты один из тестов этого бенчмарка завалили. Так вот вчера вышло промежуточное(!) обновление средней(!) модели, Claude 3.5 Sonnet. Не имея возможности нарисовать верный ответ (там требовалось продолжить закономерность в изображениях), она описала решение, очень близкое к правильному. Опять же на днях нашумела новость (я приводил в соседней теме, в разделе ИИ) о неспособности чат-ботов решить простенькую задачу - Claude 3.5 Sonnet с ней тоже справился. А еще кто-то отметил в Телеграме, что это первая модель, которая уточнила поставленную перед ней задачу - вот вам и первые ростки интерактивности.
До этого Ян Лекун опровергал перспективность LLM их неспособность к пространственному воображению и предлагал им решить конкретный пример - и вот незадача, спустя несколько месяцев они с этим уже справлялись. Я уже не говорю о том, что читал в ИИ-литературе 10-15 лет назад - там в качестве эксклюзивных человеческих способностей приводились задачи, которые современный ИИ щелкает как орехи. И так будет продолжаться (годы или десятилетия) до тех пор, пока недоступных ИИ задач просто не останется.
Но алгоритм — это, наоборот, язык, слова. Поэтому, являясь алгоритмом и потому не имея гомеостаза, ИИ не будет иметь ни активности, ни стремлений, он не сможет на том же уровне, как мы, отделять ни вредное от полезного, ни истинное от ложного. А значит, без нас ИИ ни существовать, ни познавать мир не сможет. Он по своей физической природе может быть адекватен только нашему опыту, а не среде, которой по своей физической природе стремимся быть адекватными мы.
Вообще-то мы тоже - алгоритм, язык, слова. И даже буквы - аденин, гуанин, цитозин и тимин. С гомеостазом тоже не все так однозначно. Во-первых, не доказуемо, что интеллект нуждается в гомеостазе - это может быть статичная машина принятия решений, которая ничему не обучается. Чем и является какой-нибудь старенький учитель в школе - что не мешает ему не только знать, но и учить других, обучаемых. Во-вторых, я так и не понял что мешает реализовать гомеостаз для ИИ - в простейшем виде он реализован даже в сливном бачке унитаза. То, о чем вы говорите, настолько примитивно и просто, что этим сейчас вряд ли всерьез занимаются - до тех пор, пока не решены более сложные задачи. Хотя играться с этим пробовали еще полвека назад - игра "Жизнь" называется. Отличие современных виртуальных ИИ-агентов или роботов в поисках розетки только в том, что они способны быть многократно сложнее, с лихвой оправдывая ваш любимый термин "гомеостаз". Но только на хрена он нам дался? Задача разработчиков ИИ не жизнь имитировать (задача, повторюсь, изначально очень простая и примитивная - даже если её можно бесконечно усложнять на всем диапазоне от ядерных частицы до галлактик). Их задача - решение когнитивных задач. Что многократно сложнее вашего гомеостаза в поисках пожрать, поспать, потрахаться и т.д. И хотя термин этот вы скорее всего употребляете некорректно (гомеостаз, насколько я понимаю, существует на гораздо более низком уровне уровне, чем высшая нервная деятельность человека), но давайте считать наше разумное поведение тоже гомеостазом. Ну и чего в этом сложного? Сложность как раз в интеллекте - инструменте достижения целей, обусловленных этим самым гомеостазом (как вы определяете). Запрограммировать робота на деление, как клетка, или на завоевание мира, как Александр Македонский, не проблема - проблема реализовать эти, в сущности, очень примитивные и простые цели.
Может быть, мультимодальность поможет стать сетям «как Ньютон»? Воспринимая мир более полно, умея оперировать объектами, у ИИ появится опыт, который поможет совместить тексты непосредственно с тем, что они описывают, и тем самым понять их «человеческий» смысл. Очевидно, так и есть. Вопрос только в том, насколько близко можно приблизиться к сложности опыта человека, если опыт целиком словами невыразим?
Это более предметный вопрос - в отличие от ваших категоричных абстрактно-философских суждений выше. Современные мультимодальные системы вполне успешно совмещают тексты с изображениями: вы показываете Gemini Ultra детский рисунок из двух человечков, один из которых протягивает другому палочку, похожу на свечку, и просите найти соответствующий эпизод в "Отверженных" Виктора Гюго. И вуаля - Gemini Ultra находит эпизод, в котором епископ протягивает Жану Вальжану подсвечник (который епископ якобы подарил задержанному жандармами бывшему каторжнику вместе с остальным украденным тем столовым серебром). Поэтому скорее всего полная визуализация книжного опыта (от графиков к уравнениям до кино к романам) вполне реальна - и соответственно подкрепление обучения в одной модальности закономерностями, извлеченными из другой модальности.
Но ИИ-скептики с этим похоже смирились. Вышеупомянутый Франсуа Шолле делает упор уже на другом - решении человеком якобы новых для него задач. Вот что по этому поводу думает сам ИИ, в лице Claude 3.5 Sonnet:
(Оффтоп)
Цитата:
Один из современных специалистов в области ИИ, Франсуа Шолле, считает критерием AGI свой бенчмарк (ARC-AGI), который представляет собой IQ-тест - но такой, что на нем нельзя заранее обучиться. Шолле делает упор на способность людей решать новые для себя задачи - в отличие от ИНС, нуждающихся в обучении на огромном количестве примеров. Вопрос: действительно ли люди способны решать новые задачи - или это иллюзия?
Цитата:
Это очень интересный и глубокий вопрос, затрагивающий фундаментальные аспекты человеческого познания и искусственного интеллекта. Давайте рассмотрим его с нескольких сторон:
Аргументы в пользу способности людей решать новые задачи:
- Люди демонстрируют способность к абстрактному мышлению и переносу знаний из одной области в другую.
- Человеческий мозг способен к быстрой адаптации и обучению в новых ситуациях.
- История человечества полна примеров инновационных решений и изобретений.
Аргументы, ставящие под сомнение эту способность:
- Многие "новые" задачи на самом деле могут быть комбинацией или вариацией уже знакомых паттернов.
- Люди часто используют эвристики и интуитивные методы, основанные на предыдущем опыте.
- Процесс обучения человека с рождения можно рассматривать как "обучение на огромном количестве примеров".
Сравнение с ИИ:
- Современные ИИ системы действительно требуют большого количества данных для обучения, в отличие от людей, способных учиться на небольшом количестве примеров.
- Однако некоторые подходы в ИИ, такие как few-shot learning и meta-learning, пытаются преодолеть это ограничение.
Критический взгляд на бенчмарк Шолле:
- Идея теста, на котором нельзя заранее обучиться, интересна, но возникает вопрос: возможно ли создать такой тест, который бы действительно не опирался на какие-либо предварительные знания или навыки?
Заключение:
Способность людей решать новые задачи, вероятно, представляет собой сложное сочетание действительно новаторского мышления и применения ранее приобретенных знаний и навыков в новых контекстах. Это не чистая иллюзия, но и не абсолютная истина.
Возможно, более точно было бы сказать, что люди обладают исключительной способностью быстро адаптировать и комбинировать существующие знания для решения задач в новых контекстах, что создает впечатление решения совершенно новых задач.
Критерий AGI Шолле поднимает важные вопросы, но может быть чрезмерно упрощенным подходом к оценке общего искусственного интеллекта. Истинный AGI, вероятно, должен обладать не только способностью решать новые задачи, но и множеством других когнитивных способностей, характерных для человеческого интеллекта.
И статистика, и галлюцинации — оказывается, всё уже тогда предвидели
Я надеюсь мы не будем на полном серьезе обсуждать "опровержение" художественным рассказом в советском журнале идей одного из величайших умов 20 века? Также не думаю, что нашего внимания стоит приведенное вами "предсказание" 63-летней давности:
Цитата:
Нужно, однако, твёрдо помнить: любая электронная машина выполняет программу, заложенную в неё человеком. Даже так называемые вероятностные, «беспрограммные» устройства способны искать решения лишь в узкой области, в той, для которой их предназначает создатель-человек. Различие между мозгом человека и самой совершенной электронной машиной, разумеется, не только в количестве «ячеек». И современная наука не даёт оснований надеяться, что будет построена машина, способная размышлять, любить, ненавидеть, радоваться, огорчаться, свободно творить. Всё это вместе свойственно только человеческой личности.
- во всяком случае, если вы игнорируете современные прогнозы несколько более авторитетных специалистов, чем редакторы журнала «Знание – сила» в 1961 году.