2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 17, 18, 19, 20, 21, 22, 23, 24  След.
 
 Re: Еще раз про сильный ИИ
Сообщение06.06.2024, 02:13 


10/03/16
4444
Aeroport
mihaild в сообщении #1641566 писал(а):
И, если сказать не умеешь "хрю-хрю", -
Визжи, не стесняясь: "И-и!"


Sorry, но это нужно срочно вытащить из-под под тэга оффтопа, поскольку это БЕСПОДОБНО! Причем в полном варианте звучит еще круче:

Мой мальчик! Тебе эту песню дарю -
Рассчитывай силы свои.
И, если сказать не умеешь "хрю-хрю", -
Визжи, не стесняясь: "ИИ!"

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение06.06.2024, 18:55 


05/12/14
255
MoonWatcher в сообщении #1641516 писал(а):
Забавно, но вы "доказываете" то, что уже здесь и сейчас опровергнуто практикой. Потому что уже сейчас чат-боты проявляют себя умнее множества людей - в вышеупомянутых беседах на разные темы, объяснении юмора, поиске аллюзий и скрытых смыслов в тексте, пересказе рассказов, программировании и т.д. При этом нет даже намека на то, что эти интеллектуальные возможности уперлись в потолок - более чем очевидно, что прогресс продолжится за счет улучшения количества (в том числе за счет искусственных данных) и качества обучающего дата-сета, наращивания числа параметров, а тем более гипотетического перехода на еще более перспективные архитектуры (например, сети Колмогорова-Арнольда вместе перцептронов). Никто, включая таких скептиков как Ян Лекун, даже не сомневается, что большие языковые модели станут намного умнее, чем сейчас - и значит в отдельно взятых областях знаний они безусловно превзойдут среднего человека и возможно даже крупного специалиста в своей области.

Чем сложнее модель ИИ, чем точнее обучение, тем ближе ИИ будет подбираться к знаниям специалистов — в тех областях деятельности человека, где есть много текстов. Вот так бесконечно и будет подбираться. Но это не значит, что ИИ не может ляпнуть что-нибудь интересное, новое, важное, просто преимущество в создании такого контента всё равно будет за человеком. Но от галлюцинаций ИИ не избавить, поэтому доверять ИИ что-то серьёзное будет всё равно нельзя, только под контролем человека.

При этом у человека есть стремление к самосохранению, то есть постоянная целенаправленная активность в поиске путей к лучшей жизни. В основании этого стремления гомеостаз (собственно говоря, всё поведение человека — это и есть гомеостаз, включение в который нервной системы в ходе эволюции приводит к появлению у многоклеточного организма функции перемещения в среде и далее всей сложности нашего поведения). У ИИ такой активности быть не может, так как ИИ не диссипативная структура. Как следствие, ИИ всегда будет ведомым. Помощником в интеллектуальной работе.

Про поведение реальное я написал в прошлом посте. Убираться в квартире ИИ нам вряд ли когда-нибудь поможет. Потому что в этом деле слово, например, дверь или стол приобретают гораздо более глубокий смысл, чем ИИ способен вынести из текстов. Вот потому человек и тексты понимает глубже.

Про Маугли. Маугли не развит в первую очередь из-за того, что находится вне сложного человеческого окружения, частью которого является язык. Поэтому не развитость Маугли не обосновывает значение только одного языка. И никак не говорит о том, что человек воспринимает речь на основании статистики сочетания слов, а не понимая их смысл.

Кстати, смысл — это обобщённая перспектива ситуации, то же самое, что и эмоции, так как любой смысл — это некоторая более или менее выраженная эмоция, обобщённое эмоционально-мотивирующее «понимание» значения происходящего, «предшественник» образа в ходе распознавания условий. Чем больше наблюдаемое явление было связано с разными обстоятельствами в жизни субъекта, тем глубже он будет понимать его смысл. У ИИ всю эту глубину понимания заменяет статистика сочетания слов.

MoonWatcher в сообщении #1641516 писал(а):
В моем понимании интеллект этого человека состоит в способности извлекать из своего книжного опыта закономерности и проецировать на них какие-то конкретные явления и процессы в области его интересов.

Нет никакого книжного опыта. Человек прежде всего понимает смысл текстов, а не только улавливает статистику сочетаний слов в них. Вы никак не поймёте, что словам придают смысл не другие слова, а более низкоуровневый опыт. Смысл слова молоко — это огромный контекст ощущений, выразить которые словами невозможно в принципе, можно только обозначить какие-то самые явные из них. И так любое слово. Почему, например, о личном, интимном сложно говорить? Потому что там важны чувства, всё на них завязано, а их словами полноценно не выразить.

MoonWatcher в сообщении #1641516 писал(а):
Вот именно это и требует доказательства - то, что статистические закономерности слов или даже букв в тексте заведомо ущербнее закономерностей более высокого порядка, извлеченных человеком из своего [книжного] опыта.

Я вам уже ответил: «статистика всегда имеет погрешность, по отношению к оригинальному процессу.». Оригинальный процесс здесь — это оригинальный смысл текстов. Тот, который понимает человек, когда их читает или пишет. Вот этот оригинальный смысл текстов, вы подменяете статистикой сочетания слов в них. «Поэтому ИИ не сможет понимать смысл текстов человека ни глубже самого человека, ни хотя бы так же.»

MoonWatcher в сообщении #1641516 писал(а):
Но в том-то и дело, что и человек не всегда очень умен, и уж конечно его опыт приобщения к реальным процессам ограничен - прежде всего прочитанной им литературой. Тогда как языковая модель может пропустить через себя всю оцифрованную человечеством текстовую информацию. Количество которой может перейти в качество интеллекта точно так же, как количество прочитанных человеком умных книг переходит в качество его ума.

Человек не всегда очень умён, но у людей есть разделение труда. Когда человеку надоело копать пятернёй, он создал экскаватор, и экскаватор копает лучше человека. Когда надоело считать, создал калькулятор. И вот теперь чат-боты. Ничего из этого человека не умнее, а всего лишь выполняет какую-то функцию из его опыта.

А насчёт перехода количества знаний у ИИ в некое качество И-ишного интеллекта, то это только в фантастических фильмах возможно. Такой переход — это перестроение программы на некий новый уровень сложности. Программист написал одну программу, а она вдруг взяла и сама собой перестроилась. Как вы себе это представляете? Часы обычные механические возьмите. С чего бы у них вдруг сам собой турбийон появится? Так же и у ИИ. У этих систем физика не та, чтобы перестраиваться. См. выше про диссипативные структуры, только у них возможно спонтанное усложнение сразу всей системы как одного целого — это одно из оснований биологической эволюции (когда одна мутация в ДНК приводит к взаимосвязанному усложнению всех систем организма).

Поэтому количество знаний у ИИ может привести только к одному «качественному» переходу — поломке. ИИ сгорит на работе.

MoonWatcher в сообщении #1641516 писал(а):
Ньютон - это прежде всего удачный пример осмысления доступной текстовой информации и извлечения из неё новых закономерностей, которые в этой текстовой информации не описывались.

Мозг Ньютона — это человеческий мозг. Создайте такой же — и он тоже будет «осмыслять текстовую информацию», как человек. Иначе Ньютон из ИИ не выйдет. Ньютону никто заданий не давал, он сам нашёл, где себя применить. ИИ видит проблемы? Для него они существуют? Ответ очевиден — вне стремлений, нет и проблем.

MoonWatcher в сообщении #1641516 писал(а):
Вопрос о сознании предлагаю сузить до т.н "свободы воли" - возможно ли её спонтанное (например, с переходом на более высокий уровень) возникновение у ИИ?

Со свободой воли у ИИ дела обстоят столь же плохо, как и с качественными переходами. Со свободой воли вообще дела обстоят плохо. Потому что как только мы поймём, что такое свобода воли, то сразу же окажется, что её нет. Такой парадокс. Дело в том, что если свободу воли можно свести к каким-либо законам физики, то это заданность, детерминизм. Свобода в этом случае будет если только кажущаяся. И случайный выбор — это тоже не свобода воли, так как это случай, а не выбор самого субъекта. Тупик. Более того, дело не только в законах физики, а ещё и в том, что в нашей логике вообще нет места свободе воли. Потому что даже возможность случайного события в нашем мире должна быть так или иначе заранее задана свойствами среды, в которой случайное событие происходит. Но действительно свободный выбор не может быть задан ничем снаружи субъекта.

Ну, а если мы не можем понять, что такое свобода воли, то и сконструировать ИИ со свободой воли тоже не сможем. Нельзя же создать то, незнамо что. А сама свобода воли в ИИ не возникнет — см. выше про турбийон.

Может, свободы воли вообще нет, и у нас тоже её нет? Однако если её нет, то всё теряет смысл — физика, познание, жизнь в целом. Потому что если субъекта хотя бы в принципе можно описать, то есть свести его поведение к каким-либо законам физики, то окажется, что любая наша мысль была задана ещё в момент Большого взрыва. Всё уже тогда было предрешено, в мире есть только безальтернативное следование этой вселенской программе, супердетерминизм.

Но главная проблема не в утрате смысла, а в том, что это всё абсолютно невероятно. Например, никакая КМ здесь ничего не изменит: абсолютно невозможно, чтобы квантово-механические вероятности распределились так, чтобы мы не только появились на какой-нибудь краткий миг, как Больцмановский мозг, но существуем, мыслим, развиваемся (если исходить из того, что мы действительно существуем, мыслим и развиваемся).

Поэтому у нас свобода воли есть, а проблемы с ней решаются просто. Мир дан нам через ощущения, а это значит, что теория всего равносильна непротиворечивому описанию всего мыслимого. Но теория всего не имеет смысла, а всё мыслимое суть сложность поведения субъекта. Таким образом, так же, как мы всегда будем далеки от теории всего, так же мы будем далеки и от описания субъекта. Например, создание теории, которая не оставит в субъекте загадок, равносильно рисованию себя, рисующего себя, рисующего себя… и так бесконечно. И эта же теория будет теорией всего, так как, описав себя, больше описывать будет нечего, всё мыслимое станет выводимым в этой теории, а кроме мыслимого ничего нет.

В итоге поведение субъекта всегда будет богаче любых теорий и вообще всего того, что можно выразить словами, в том числе любой нашей логики. Вот это и есть свобода воли — наше поведение за рамками познания. Это если без подробностей, которых много — и про свободу воли, и про эволюцию, которая тоже не задана, и даже про КМ.

druggist в сообщении #1641528 писал(а):
Почему бы не предположить такую схему функционирования и эволюции сильного ИИ: Время от времени он генерирует проверяемые на опыте гипотезы и алгоритмы их практической проверки человеком, ЕЕ в силу ограниченности не может понять ни логику их выдвижения ни разработать программу осуществления их проверки и все более и более начинает быть зависим от ИИ, становясь по сути его придатком, как в свое время кремниевые скребок и рубило становились "неорганическим телом человека"

Откуда у ИИ возьмутся такие «гипотезы и алгоритмы», что человек их понять не сможет? ИИ предложит новую теорию? Но он придумает её на основании наших знаний, поэтому мы, конечно, можем удивиться его прозорливости или интуиции, но теорию поймём. И даже если не поймём, как это эволюции самого ИИ поможет?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение07.06.2024, 02:47 
Аватара пользователя


17/10/22
358
Dicson в сообщении #1641668 писал(а):
Чем сложнее модель ИИ, чем точнее обучение, тем ближе ИИ будет подбираться к знаниям специалистов — в тех областях деятельности человека, где есть много текстов. Вот так бесконечно и будет подбираться. Но это не значит, что ИИ не может ляпнуть что-нибудь интересное, новое, важное, просто преимущество в создании такого контента всё равно будет за человеком. Но от галлюцинаций ИИ не избавить, поэтому доверять ИИ что-то серьёзное будет всё равно нельзя, только под контролем человека.

Прогнозы специалистов говорят об обратном - они обещают, что через пару лет галлюцинаций уже не будет. Да и я по своему опыту могу сказать, что если год назад их было очень много, то за последнее время их не припомню.

Dicson в сообщении #1641668 писал(а):
При этом у человека есть стремление к самосохранению, то есть постоянная целенаправленная активность в поиске путей к лучшей жизни. В основании этого стремления гомеостаз (собственно говоря, всё поведение человека — это и есть гомеостаз, включение в который нервной системы в ходе эволюции приводит к появлению у многоклеточного организма функции перемещения в среде и далее всей сложности нашего поведения). У ИИ такой активности быть не может, так как ИИ не диссипативная структура. Как следствие, ИИ всегда будет ведомым. Помощником в интеллектуальной работе.

У человека на работе, если он не военный/полицейский/пожарный и т.д., нет никакого стремления к самосохранению - у него, в массе, есть стремление поменьше работать и побольше получать. Это вопрос не стремления, а умения - если ИИ будет достаточно умен, то просто заменит человека на работе. Человека надо мотивировать - премиями, карьерой, угрозой увольнения. Причем мотивировать не умнеть, а просто работать. ИИ будет работать 24/7 без всякой мотивации.

Dicson в сообщении #1641668 писал(а):
Про поведение реальное я написал в прошлом посте. Убираться в квартире ИИ нам вряд ли когда-нибудь поможет. Потому что в этом деле слово, например, дверь или стол приобретают гораздо более глубокий смысл, чем ИИ способен вынести из текстов. Вот потому человек и тексты понимает глубже.

Уже убирается - просто пока это работает на зачаточном уровне. Всё говорит о том, что в ближайшие годы вполне реально появление роботов, способных убираться по дому, готовить и т.д. Это стало очевидно по меньшей мере с анонсом Gemini, а после анонса GPT-4o сомнений уже не осталось. Конечно, это уже не чисто языковые модели, а мультимодальные. Не так давно обычные студенты продемонстрировали недорого, собранного на коленках, робота, который, пару десятков раз выполнив какое-то действие под управлением человека, обучился его самостоятельному выполнению. Мировой видео-архив, виртуальная реальность - это вполне реальный базис для обучения мультимодальных систем любой физической работе.

Dicson в сообщении #1641668 писал(а):
Про Маугли. Маугли не развит в первую очередь из-за того, что находится вне сложного человеческого окружения, частью которого является язык. Поэтому не развитость Маугли не обосновывает значение только одного языка. И никак не говорит о том, что человек воспринимает речь на основании статистики сочетания слов, а не понимая их смысл.

Язык является ключевой и главной частью человеческого окружения - без него человек разумный скорее всего невозможен (хотя был ли у неандертальцев язык все еще спорят). Иначе в чем смысл человеческого окружения - во взаимном обнюхивании и поиске блох, как у обезьян? Коллективной охоте, как у волков? Человека человеком делает прежде всего коммуникация с сородичами на языке - устном, для слепоглухих и т.д.

Dicson в сообщении #1641668 писал(а):
Кстати, смысл — это обобщённая перспектива ситуации, то же самое, что и эмоции, так как любой смысл — это некоторая более или менее выраженная эмоция, обобщённое эмоционально-мотивирующее «понимание» значения происходящего, «предшественник» образа в ходе распознавания условий. Чем больше наблюдаемое явление было связано с разными обстоятельствами в жизни субъекта, тем глубже он будет понимать его смысл. У ИИ всю эту глубину понимания заменяет статистика сочетания слов.

Повторюсь - то, что эта статистика ущербнее других способов понимания, требует доказательств. Пока практика показывает, что языковая статистика работает. Вы в курсе, что даже сами создатели современного ИИ не думали, что это сработает настолько здорово? Нечего и говорить о скептиках - любой ученый просто посмеялся, если бы ему сказали, что языковая модель способна вытворять то, что сейчас вытворяет GPT-4 или Claude 3.

Dicson в сообщении #1641668 писал(а):
Нет никакого книжного опыта. Человек прежде всего понимает смысл текстов, а не только улавливает статистику сочетаний слов в них. Вы никак не поймёте, что словам придают смысл не другие слова, а более низкоуровневый опыт. Смысл слова молоко — это огромный контекст ощущений, выразить которые словами невозможно в принципе, можно только обозначить какие-то самые явные из них. И так любое слово. Почему, например, о личном, интимном сложно говорить? Потому что там важны чувства, всё на них завязано, а их словами полноценно не выразить.

Я настолько этого никак не пойму, что сам же вам об этом говорил. И даже изложил свое подробное понимание как это происходит:
MoonWatcher в сообщении #1641324 писал(а):
Это всё так, но в моем сугубо дилетантском представлении непосредственно понимание у нас выражается, главным образом, следующим образом:
1) мысленное представление увиденного/услышанного/прочитанного (визуальное, слуховое, тактильное, эмоциональное и т.д.), а также
2) наложение увиденного/услышанного/прочитанного на усвоенные и закрепленные нашим личным опытом закономерности.

Когда вы говорите "Гло́кая ку́здра ште́ко будлану́ла бо́кра и курдя́чит бокрёнка", то я ничего не понимаю. Но если вы скажете "Большая собака больно укусила кота и лижет котенка", то я смогу мысленно представить эту сцену и связать её со своим ощущениями большого и маленького, кусания и лизания, и т.д.

Но вынужден повторить - не факт, что этим исчерпывается значение слов "понимать" и "смысл". И что понимание за счет статистических закономерностей в огромном корпусе текстов хуже более глубокого и многогранного понимания, ограниченного человеческим опытом. Мои сомнения основаны на конкретных достижениях больших языковых моделей, о которых я говорил выше.

Что касается книжного опыта, то я уже говорил - человеку он помогает постигать закономерности мира, в т.ч. лежащего за пределами его ощущений. Как-то любовь, которую многие люди вообще не испытывали. Или боль - есть паталогии, при которых человек её не чувствует. Но прочитав книжки, человек прекрасно научится понимать эти категории. Еще круче с квантовой физикой - какие там ощущения? Её можно осмыслить, "понять" только через математику. И, представьте, это работает.

Dicson в сообщении #1641668 писал(а):
Я вам уже ответил: «статистика всегда имеет погрешность, по отношению к оригинальному процессу.». Оригинальный процесс здесь — это оригинальный смысл текстов. Тот, который понимает человек, когда их читает или пишет. Вот этот оригинальный смысл текстов, вы подменяете статистикой сочетания слов в них. «Поэтому ИИ не сможет понимать смысл текстов человека ни глубже самого человека, ни хотя бы так же.»

Вот именно что "тот, который понимает человек, когда их читает или пишет". Никакой это не оригинальный смысл - как говорил Умберто Эко, написанная писателем книга ему больше не принадлежит - каждый читатель интерпретирует её по-своему. Так вот речь о том, что статистика слов в тексте возможно способна обеспечить даже более релевантное понимание, чем у человека - начиная с какого-то порога. Потому что 13 лет назад языковая модель генерировала бред, а сейчас решает университетские задачи. Я не утверждаю, что осмысление закономерностей через текстовую статистику способно превзойти человеческое осмысление - я лишь говорю, что этот вопрос требует доказательства. Согласитесь, что и люди сильно разные - от идиотов (IQ не больше 20) до гениев. Идиотов языковые модели очевидно превзошли - откуда ваша уверенность, что они никогда не превзойдут если не гениев, то людей со средним уровнем интеллекта?

Dicson в сообщении #1641668 писал(а):
Человек не всегда очень умён, но у людей есть разделение труда. Когда человеку надоело копать пятернёй, он создал экскаватор, и экскаватор копает лучше человека. Когда надоело считать, создал калькулятор. И вот теперь чат-боты. Ничего из этого человека не умнее, а всего лишь выполняет какую-то функцию из его опыта.

Вы не путаете человека с человечеством?

Dicson в сообщении #1641668 писал(а):
А насчёт перехода количества знаний у ИИ в некое качество И-ишного интеллекта, то это только в фантастических фильмах возможно. Такой переход — это перестроение программы на некий новый уровень сложности. Программист написал одну программу, а она вдруг взяла и сама собой перестроилась. Как вы себе это представляете? Часы обычные механические возьмите. С чего бы у них вдруг сам собой турбийон появится? Так же и у ИИ. У этих систем физика не та, чтобы перестраиваться. См. выше про диссипативные структуры, только у них возможно спонтанное усложнение сразу всей системы как одного целого — это одно из оснований биологической эволюции (когда одна мутация в ДНК приводит к взаимосвязанному усложнению всех систем организма).

Поздравляю вас - вы живете в фантастическом фильме! Причем ИИ здесь даже не при чем - все дело в таких явлениях природы как эмерджентность и переход количества в качество. И хотя, повторюсь, в это мало кто верил изначально, в случае с языковыми моделями это сработало идеально - они откровенно бредили с миллионом параметров и они такие, какие сейчас, с триллионом параметров. И хотя такое сравнение не корректно, в нашем мозге параметров (синаптических связей) около 100 триллионов.

Причем здесь физика не понял. Во-первых, не факт, что искусственный разум должен непременно перестраиваться - хотя есть и такие теории. Во-вторых, перестройку можно представить, например, в виде совместной работы агентов - один из них изучает код работающей модели, периодически вносит в него изменения (например, случайно меняет какие-то параметры) и сравнивает с новым результатом. Или он просто продолжает обучаться на новых кусках кода, научных статьях и т.д. - и переписывает код работающей модели с учетом этих новых знаний.

Dicson в сообщении #1641668 писал(а):
Поэтому количество знаний у ИИ может привести только к одному «качественному» переходу — поломке. ИИ сгорит на работе.

Не горят ИИ на работе, хоть тресни - хотя количество знаний у них регулярно прибавляется. Программы вообще не способны гореть - гореть могут разве что графические ускорители, на которых они обучаются. Но чего нет - того нет.

Dicson в сообщении #1641668 писал(а):
Мозг Ньютона — это человеческий мозг. Создайте такой же — и он тоже будет «осмыслять текстовую информацию», как человек. Иначе Ньютон из ИИ не выйдет. Ньютону никто заданий не давал, он сам нашёл, где себя применить. ИИ видит проблемы? Для него они существуют? Ответ очевиден — вне стремлений, нет и проблем.

Нет никаких проблем с тем, чтобы заложить в ИИ стремления или просто давать ему задания. Тот же Ньютон мог стать автором своих изобретений по заказу - как работали ученые в советских шарашках. Проблема не в стремлениях, а уровне интеллекта. Тем более, что пока на Ньютона не замахиваются - AGI появится тогда, когда любую интеллектуальную работу будет делать ИИ, а не удаленщик. У которого, повторюсь, в массе стремление поменьше работать и побольше получать. Вы просто шлете ему задания: напиши такой-то код, сделай консолидированную финансовую отчетность, проанализируй результаты лабораторных испытаний, проверь диктант на ошибки, отбери из кучи резюме подходящего кандидата, вынеси решение по предоставлению кредита в соответствии с персональными данными заемщика... По мере своего развития, ИИ сможет выполнять более сложные задания и будет работать более самостоятельно. Например, запрашивать или искать недостающие для выполнения работы данные.


Про свободу воли - отдельный большой разговор. То, что её нет - согласен. Но есть некая непредсказуемость нашего поведения, обусловленная огромным количеством факторов: природных, социальных, ситуативных. Вплоть до "Никто от меня такого не ждет - а я возьму и сделаю!" Но вы как-то легко и просто опровергли вероятность спонтанного возникновения такой "свободы воли" у ИИ. Тезис "нельзя же создать то, незнамо что" явно ошибочен - МОЖНО. Именно так и появился ИИ современного типа: 13 лет назад несколько ученых решили поиграть в игру "угадай следующее слово" - и получили забавный бредогенератор. Который за эти 13 лет эволюционировал в нечто удивительно разумное - если помнить, что он всего лишь угадывает следующее слово". Хотя многие, включая вас, возражали бы против того, что это возможно - дескать, нельзя создать аналог разума, не понимая как этот самый разум устроен и работает...

Будет ли он эволюционировать дальше, по мере наращивания количества параметров, обучающего дата-сета, каких-то новых архитектурных решений, не говоря уже про мультимодальность? Да, безусловно. Приведет ли к созданию AGI? Неизвестно. Но если приведет - откуда нам знать, что те элементы сознания, которые ученые обнаружили даже в нынешних языковых моделях, в будущих версиях не станут чем-то вроде человеческого сознания? Боюсь, что вы сильно недооцениваете эмерджентность, и не только вы. Отсюда эта наивная точка зрения многих ИИ-скептиков: нет никакого ИИ - есть всего лишь угадывание следующего слова. Или всего лишь аппроксиматор функций... Хотя в основе работы мозга также лежат "всего лишь" какие-то простые электрохимические реакции - огромное количество которых и переходит в качество интеллекта. Да, я помню и знаю - человеческое понимание не основано на статистических текстовых закономерностях. Но вынужден повторить: требует доказательства утерждение, что постижение мира через статистические закономерности в огромном корпусе текстов (претендующем на достаточно полное текстовое описание этого мира) ущербнее его постижения через личный опыт человека - более глубокий и многогранный, но и более ограниченный.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение07.06.2024, 10:09 


30/03/20

434
Klinskoe в сообщении #1641725 писал(а):
А инет заполняется ИИ-текстами, содержащими ИИ-галлюцинации, и они тоже попадают в обучающую выборку!

Уж не знаю попадают ли ИИ-галлюцинации в обучающую выборку. Но некоторые сайты и правда будто ИИ уже заполняются. Вот например какие-то бредовые статьи о статистике результатов ОГЭ 2023 года:
https://aktosr.ru/novosti/statistika-re ... snye-fakty
https://survz.ru/populyarnye/itogi-oge- ... -i-trendy/
https://investim.guru/faq/rezultaty-oge ... statistika

-- 07.06.2024, 10:18 --

MoonWatcher в сообщении #1641727 писал(а):
Отдельно взятые физики написали тексты, по которым все остальные в той или иной степени понимают квантовую физику. Точно так же отдельно взятые люди написали тексты, по которым большие языковые модели в той или иной степени понимают наш мир в целом - включая квантовую физику

Полагаю слепого от рождения возможно научить оптике и его академические знания о свете будут много глубже академических знаний о свете обычного зрячего человека. Но будет ли он действительно знать что такое свет? И будет ли он способен хоть как то применить эти свои знания о свете не полагаясь на помощь зрячих людей? 3-D игру например разработать, или картину написать, или оператором фильма стать? В обычном случае книжные знания позволяют углубить знания получаемые органами чувств, но если есть только книжные знания а органов чувств нет вообще, что тогда?
Квантовая физика, представим гипотетическое существо, назову его "синоптик квантового пространства" Которое на уровне своих органов чувств ощущает все эти микрочастицы, волны ДеБройля, соотношение неопределённостей Гейзенберга и все остальные квантовые явления. Может пощупать электрон и понюхать нейтрино. Хороши ли будут современные физики в сравнении с ним?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение07.06.2024, 17:11 
Аватара пользователя


17/10/22
358
Cuprum2020 в сообщении #1641729 писал(а):
Полагаю слепого от рождения возможно научить оптике и его академические знания о свете будут много глубже академических знаний о свете обычного зрячего человека. Но будет ли он действительно знать что такое свет? И будет ли он способен хоть как то применить эти свои знания о свете не полагаясь на помощь зрячих людей? 3-D игру например разработать, или картину написать, или оператором фильма стать? В обычном случае книжные знания позволяют углубить знания получаемые органами чувств, но если есть только книжные знания а органов чувств нет вообще, что тогда?
Квантовая физика, представим гипотетическое существо, назову его "синоптик квантового пространства" Которое на уровне своих органов чувств ощущает все эти микрочастицы, волны ДеБройля, соотношение неопределённостей Гейзенберга и все остальные квантовые явления. Может пощупать электрон и понюхать нейтрино. Хороши ли будут современные физики в сравнении с ним?

Я и сам задался этим вопросом, пока приводил такое сравнение. Не знаю, и скорее всего здесь нет однозначного ответа. Выше вы привели хороший пример про слепого от рождения, обученного оптике как науке - в чем-то его понимание света будет глубже, а в чем-то вообще отсутствует. Но в любом случае, не живя в квантовом микромире и не понимая его так, как они понимают макромир, физики квантовый мир все-таки понимают - в рамках математических закономерностей, его описывающих. Возможно и наш мир можно понять, с такими же ограничениями, в рамках описывающей его формальной символьной (текстовой) системы - без каких-либо точек соприкосновения с реальностью, которую эта система описывает.

А вообще этот вопрос хоть и интересный, но во многом утратил актуальность - ИИ уже стал мультимодальным. Поэтому в моем представлении о человеческом понимании (когда символьная информация транслируется, например, в набор зрительных образов) в таком мультимодальном ИИ отчасти реализовано и человеческое понимание. За исключением физических и эмоциональных ощущений. Впрочем, Джеффри Хинтон считает, что ИИ способен испытывать эмоции. По меньшей мере это открытый вопрос: можно ли научить ИИ не только думать, но и чувствовать.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение07.06.2024, 20:06 


12/07/15
3294
г. Чехов
Cuprum2020 в сообщении #1641729 писал(а):
Но будет ли он действительно знать что такое свет?

На самом деле о свете можно задавать миллиарды всяких вопросов, один из которых не самый чувствительный для бытия - "что такое свет?". Есть другие более чувствительные (утилитарные) вопросы, например: "Да будет ли свет в конце туннеля???". И этот слепой прекрасно на него ответит, хотя и не будет знать, что представляет собой свет. Да и на вопрос: "Что такое свет?" - нетрудно подготовить заранее ответ. Трудновато ответить на вопрос: "Есть ли свет в конце тоннеля?", - находясь в тоннеле.
Итог: вы не очень понимаете про утилитарность вопросов и про возможность на них отвечать. Ваше восприятие БЯМ находится где-то на окраине. Вам опять по инерции кажется, что БЯМ должна решать математические и логические задачи, а по факту происходит "вон оно чо!".

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение07.06.2024, 20:19 


30/03/20

434
Mihaylo в сообщении #1641771 писал(а):
вы не очень понимаете про утилитарность вопросов и про возможность на них отвечать

Слепому от рождения эксперту по свету задают вопрос: А где камеру ставить будем актёров в кадре снимать? А где ставить будем осветительные приборы? Сможет ли эксперт дать обоснованные ответы полагаясь на свои глубокие теоретические знания?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение07.06.2024, 20:48 


12/07/15
3294
г. Чехов
Боже мой, вы не понимаете... Вы попробуйте хотя бы сами ответить. И оцените утилитарность не ответа, а своего вопроса.)

ЧатГПТ ответит и вы будете удивлены (?).

Одни из возможных ответов: "Расставьте как угодно, лишь бы <...>" или "Расставьте сами, я проверю". И это будет считаться ОЧЕНЬ КРУТЫМ ОТВЕТОМ!

Вы теперь понимаете, что значит "интеллект - это средство решения задач с невысокими требованиями к точности решения"?

-- 07.06.2024, 21:15 --

Забавная штука. Помимо проблемы повторения сенсомоторного опыта человека существует также проблема понимания сенсомоторного опыта человека. Мало думать, что ты человек и имеешь сенсомоторный опыт, надо ещё и понимать, что всё это значит. На текущий момент большинство людей предаётся иллюзии, что человек отличается способностью решать логические, математические и энциклопедические задачи. Кстати, последний тип задач - тупо лёгкий даже для имитации.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение07.06.2024, 22:29 


20/09/09
2031
Уфа
ozheredov в сообщении #1641602 писал(а):
Sorry, но это нужно срочно вытащить из-под под тэга оффтопа, поскольку это БЕСПОДОБНО! Причем в полном варианте звучит еще круче:

Мой мальчик! Тебе эту песню дарю -
Рассчитывай силы свои.
И, если сказать не умеешь "хрю-хрю", -
Визжи, не стесняясь: "ИИ!"

Да что там говорить, в прошлом веке говорили, что "искусственным интеллектом занимаются те, кому не хватает естественного". :facepalm:

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение08.06.2024, 19:31 


05/12/14
255
MoonWatcher в сообщении #1641711 писал(а):
Повторюсь - то, что эта статистика ущербнее других способов понимания, требует доказательств.

Что статистика более или менее неадекватна реальному распределению — это факт, доказательств он уже не требует. Где данных больше, там более адекватна, где меньше там менее. Статистика расстановки слов в текстах более или менее неадекватна реальным причинам их именно такой расстановки. Поэтому ИИ понимает смысл текстов тоже более или менее неадекватно их реальному смыслу, из-за чего и все проблемы. Думаю, вы всё это и сами уже понимаете, просто ещё не осознали.

Но когда осознаете, полагаю, приведёте следующий аргумент. Пусть ИИ понимает смысл текстов человека неточно и упрощённо, и потому отстаёт как минимум от специалистов в своих областях. Но зато специалист разбирается в какой-то одной области знания, а ИИ во всех, он как бы везде поспел. А значит, ИИ может увидеть то, что человек не увидел в силу ограниченного кругозора. Например, связав разные области физики, прийти к каким-то новым, неожиданным и верным идеям.

Нет, не может прийти. ИИ вторичен. Его ответы на вопросы стремятся к тем, которые бы дал человек, разбирающийся в этой области знания. ИИ даст ответ и отключится. Однако, помимо умения отвечать на вопросы в стиле ИИ здесь и сейчас, человек ещё обладает постоянной активностью в стремлении к самосохранению, стремиться жить лучше. Наш мозг постоянно обучается, постоянно стремится выйти за рамки уже узнанного, он так устроен на физическом уроне. Мы постоянно думаем, анализируем, чем-то делаем, чем-то заняты — всё это и есть частные элементы этого непрекращающегося глобального стремления.

ИИ ни к чему не стремится и не может стремиться в принципе, ИИ — это принципиально другая физическая система. Поэтому если человека ответ на заданный ему вопрос может навести на какую-то новую, вначале смутную идею, которую он уточнит и проверит в эксперимента (и, как следствие, появится новый текст для ИИ), то ИИ ответит и просто отключится. В итоге — простой интеллектуальны помощник, не более.

Конечно, прочитав это, вы тут же приведёте ещё один аргумент. Что надо всего лишь правильно сформулировать вопрос — и тогда почему бы в ответе не появиться тому самому «неожиданному и верному»? Это может быть, только объём неожиданного в ответе ИИ будет обратно пропорционален объёму верного. Иным словами, ответ будет или верный, или неожиданный. Потому что вопрос — это половина ответа, а значит, если человек смог сформулировать такой вопрос, на который ИИ способен дать конкретный и правильный ответ, то этот ответ для человека будет не открытием, а обычной рутинной помощью в его собственной работе. Как посчитать на калькуляторе, около того. В итоге — см. выше, всё то же самое, ИИ простой интеллектуальны помощник, не более.

Но вы и тут возразите — а может, в перспективе всё придёт? И ИИ всё-таки подомнёт под себя человека — о чём вы, полагаю, и грезите на самом деле. Нет, не придёт и не не подомнёт.

Мы ощущаем, когда нам лучше, а когда хуже, и на этом основании можем отделять верное знание от неверного. Если знание реальности не соответствует, то, применив его на практике, мы получим только проблемы, а не рост качества жизни и самосохранение. Но ИИ ничего не чувствует, при этом слова не обозначают и ничтожной доли всего спектра наших чувств (хотя по-вашему, «тексты описывают 99.999...% наших представлений о мире»). А значит, по сути, бесконечный, по сравнению со словами, пласт нашего опыта всегда будет за пределами того, что как-либо доступно ИИ. Аналогично слова не описывают построение движений, мы не знаем, как конкретно мозг так слаженно и тонко управляет мышцами. Поэтому то же, что и с ощущениями — огромный пласт опыта, связанного с реальными действиями в среде, ИИ недоступен. Более того, то, что мы сейчас всё-таки знаем, говорит о том, что чувства, эмоции и человеческая сложность движений, всё это ИИ недоступно в принципе.

Поэтому ИИ в принципе не способен к самостоятельной познавательной деятельности и вообще не сможет существовать без нас. Он попросту не способен отделять верное от неверного, ему всё всё равно. Поэтому сколько-нибудь значительная самостоятельность в обучении ИИ приведёт к тому, что ИИ, что называется, пойдёт вразнос, его поведение станет неадекватным. У него нет точки отсчёта для познания, той единственной абсолютной истины, которая есть у нас, — существования себя, своих ощущений, их абсолютной реальности (причём во всех смыслах, но это тема для отдельной темы). И наконец ИИ — это такая физическая система, по сути, механизм, которую среда только разрушает. ИИ ржавеет. А нас среда создаёт и развивает.

Так что СИИ не будет. Без нас ИИ невозможен, а мы сами сложнее себя систему не создадим в принципе. Создание, обучение, оценка результата будет требовать всё больше времени. По мере приближения сложности поведения систем к сложности поведения самих себя себя время каждого нового усложнения будет всё быстрее расти к бесконечности.

MoonWatcher в сообщении #1641711 писал(а):
Прогнозы специалистов говорят об обратном - они обещают, что через пару лет галлюцинаций уже не будет.

Ссылку можно? Что там специалисты говорят конкретно.

MoonWatcher в сообщении #1641711 писал(а):
У человека на работе, если он не военный/полицейский/пожарный и т.д., нет никакого стремления к самосохранению - у него, в массе, есть стремление поменьше работать и побольше получать.

Гомеостаз, который и есть «стремление к самосохранению», — это основание любой жизни, как физической системы. Оно везде, в каждой клетке организма и во всём поведении организма в целом. Появление нервной системы, возможности передвигаться и обучаться, привели к тому, что стремление к самосохранению реализуется в том числе, как стремление к лучшему качеству жизни.

MoonWatcher в сообщении #1641711 писал(а):
Это вопрос не стремления, а умения - если ИИ будет достаточно умен, то просто заменит человека на работе. Человека надо мотивировать - премиями, карьерой, угрозой увольнения. Причем мотивировать не умнеть, а просто работать. ИИ будет работать 24/7 без всякой мотивации.

Речь шла о том, что ИИ всегда будет ведомым. Не ИИ, подумав и порешав между собой, будут человека от работы отстранять, а человек будет решать, где ИИ место, чтобы человеку хорошо было.

MoonWatcher в сообщении #1641711 писал(а):
Всё говорит о том, что в ближайшие годы вполне реально появление роботов, способных убираться по дому, готовить и т.д. Это стало очевидно по меньшей мере с анонсом Gemini, а после анонса GPT-4o сомнений уже не осталось.

Ответьте, пожалуйста, что конкретно в плане возможности уборки квартиры «стало очевидно по меньшей мере с «анонсом Gemini, а после анонса GPT-4o сомнений уже не осталось»? Роботы научились ориентироваться в обстановке любой квартиры? Тонкая моторика уже есть? И всему этому учат? Как?

MoonWatcher в сообщении #1641711 писал(а):
Конечно, это уже не чисто языковые модели, а мультимодальные.

И где они, эти модели? Что они могут? Есть ссылка?

MoonWatcher в сообщении #1641711 писал(а):
Не так давно обычные студенты продемонстрировали недорого, собранного на коленках, робота, который, пару десятков раз выполнив какое-то действие под управлением человека, обучился его самостоятельному выполнению.

Это радует. И как далеко дело продвинулось? Что-то бегает уже? А то и собачки искусственные были, и мулы у DARPA, и где они все?

MoonWatcher в сообщении #1641711 писал(а):
Мировой видео-архив, виртуальная реальность - это вполне реальный базис для обучения мультимодальных систем любой физической работе.

Вы понимаете, о чём пишете? Похоже, что нет. Чтобы это всё стало обучающими примерами, нужна соответствующая система. Примеров самих по себе недостаточно. Попробуйте кошку обучить на этом вашем «базисе».

MoonWatcher в сообщении #1641711 писал(а):
Что касается книжного опыта, то я уже говорил - человеку он помогает постигать закономерности мира, в т.ч. лежащего за пределами его ощущений. Как-то любовь, которую многие люди вообще не испытывали. Или боль - есть паталогии, при которых человек её не чувствует. Но прочитав книжки, человек прекрасно научится понимать эти категории.

За пределами ощущений ничего нет. Всё, что человек представляет о других людях или других местах, он представляет только исключительно на основании своего опыта. Потому что слова сами по себе никакого смысла не имеют. В процессе обучения звуки совмещаются с теми или иными его ощущениями и тем самым приобретают для человека тот или иной смысл.

Как человек узнает, что такое любовь, если не любил? Думайте, что пишете-то.

MoonWatcher в сообщении #1641711 писал(а):
Поздравляю вас - вы живете в фантастическом фильме! Причем ИИ здесь даже не при чем - все дело в таких явлениях природы как эмерджентность и переход количества в качество.

Постепенное усложнение — это не переход количества в качество. Нужно, чтобы в ответ на количественные изменения скачком появилось новое качество, которого не было изначально. В реальном мире — это переход через точку бифуркации. Бифуркация — это качественное изменение поведения динамической системы при бесконечно малом изменении её параметров. Суть перехода: увеличение интенсивности обмена со средой и рост количества флуктуаций (количественные изменения) в какой-то момент приводит к скачкообразному перестроению системы на новый уровень сложности (появление нового качества). У ИИ таких переходов нет и быть не может, у человека с этими переходами связано всё, начиная от эволюции и морфогенеза до работы мозга. Поэтому мы можем скачком приходить к идеям значительной новизны (озарение новой идеей).

MoonWatcher в сообщении #1641711 писал(а):
в нашем мозге параметров (синаптических связей) около 100 триллионов.

Мало. Объединяет нейроны в сеть около квадриллиона связей ($10^1^5$). По некоторым подсчётам, если вытянуть все нейронные связи только одной коры в линию, ее длина составит почти три миллиона километров. Для сравнения расстояние до Луны — 384 тыс. км.

MoonWatcher в сообщении #1641711 писал(а):
Причем здесь физика не понял.

Так разберитесь.

MoonWatcher в сообщении #1641711 писал(а):
Во-первых, не факт, что искусственный разум должен непременно перестраиваться - хотя есть и такие теории.

Искусственный разум не должен перестраиваться, так как он всего лишь упрощённое подобие человеческого. Но это вы грезили о каких-то новых качествах, которые ни с того ни с сего вдруг появятся у ИИ.

MoonWatcher в сообщении #1641711 писал(а):
Во-вторых, перестройку можно представить, например, в виде совместной работы агентов - один из них изучает код работающей модели, периодически вносит в него изменения (например, случайно меняет какие-то параметры) и сравнивает с новым результатом. Или он просто продолжает обучаться на новых кусках кода, научных статьях и т.д. - и переписывает код работающей модели с учетом этих новых знаний.

То есть эти «агенты» будут заранее знать, как правильно должна функционировать система? Тогда зачем обучение, если уже всё известно? Если вы подгоняете модель под известный результат, то достаточно обучения, а если результат неизвестен, то какие «агенты»?

Только у человека и таких физических систем, как он, есть возможность без какого-либо предварительного плана скачками перестраиваться в более сложное, но адекватное среде состояние. Откройте Википедию, прочитайте, что такое ячейки Бенара, диссипативные структуры, самоорганизация.

MoonWatcher в сообщении #1641711 писал(а):
Нет никаких проблем с тем, чтобы заложить в ИИ стремления или просто давать ему задания.

Я вам написал, стремления — это гомеостаз. У ИИ он невозможен. У вас есть возражения по существу? Если нет, то откуда взялось утверждение «нет никаких проблем с тем, чтобы заложить в ИИ стремления»? Или аргументируйте, или не утверждайте.

MoonWatcher в сообщении #1641711 писал(а):
Вы просто шлете ему задания: напиши такой-то код, сделай консолидированную финансовую отчетность, проанализируй результаты лабораторных испытаний, проверь диктант на ошибки, отбери из кучи резюме подходящего кандидата, вынеси решение по предоставлению кредита в соответствии с персональными данными заемщика... По мере своего развития, ИИ сможет выполнять более сложные задания и будет работать более самостоятельно. Например, запрашивать или искать недостающие для выполнения работы данные.

Вполне вероятно, что так и будет. Но нас ведь не рутина интересует — и так понятно, что когда-нибудь ИИ с ней справится, да это и сейчас уже возможно. За ИИ, конечно, всё перепроверять надо, но тем не менее. Но нам же открытия нужны. Чтобы как Ньютон. А с этим у ИИ проблем, так как для выводов ИИ нужны тексты, а где новизна и открытия, там их ещё нет.

Человек же тексты создаёт, поэтому его стремления растут не только из других текстов, но и из невыразимых языком смутных ощущений, которые заставляют его двигаться в каком-то направлении и только потом понять, куда и зачем он двигался. Иными словами, мозг распознаёт какие-то важные признаки условий, но их недостаточно для конкретизации в точные формулировки. Поэтому человек чувствует, что вот здесь что-то есть, но что конкретно, понимает потом.

MoonWatcher в сообщении #1641711 писал(а):
Про свободу воли - отдельный большой разговор. То, что её нет - согласен.

С кем вы согласны? Я написал, что у человека свобода воли есть. А у ИИ её нет и не может быть, хотя бы потому, что в ИИ нет ничего принципиально непонятного — он программа. А свобода воли понятна быть не может. Почему не может, я тоже написал. Не согласны, опровергайте. Но грезить про всякие «спонтанности» не стоит. Потому что и на этот счёт я вам тоже пояснил — см. про переходы количества в качество выше.

MoonWatcher в сообщении #1641711 писал(а):
Хотя многие, включая вас, возражали бы против того, что это возможно - дескать, нельзя создать аналог разума, не понимая как этот самый разум устроен и работает...

Я бы не возражал, потому что идея великолепная. Но чат-бот не аналог разума. Наш интеллект занимается построением движений в общем контексте стремления к самосохранению. Вот это и есть разум.

MoonWatcher в сообщении #1641711 писал(а):
Приведет ли к созданию AGI? Неизвестно. Но если приведет - откуда нам знать, что те элементы сознания, которые ученые обнаружили даже в нынешних языковых моделях, в будущих версиях не станут чем-то вроде человеческого сознания?

Какие ещё «элементы сознания» учёные обнаружили? Главное, как они их обнаружили? Ведь никто не знает, что такое сознание? И вообще при чём здесь сознание? Сознание — это отражение сложности системы. Создайте программу, столь же сложную, как интеллект человека, и наплевать, есть ли у неё сознание. Плавает как утка, и хорошо. Но проблема в том, что мыслит у нас неравновесный упорядоченный объём веществ и химических реакций, то есть специфический «кусок» настоящей, чистой реальности, а программа — это хоть и тоже реальность, но с душком, её суть в том, что это описание, а описание — это всегда упрощение того явления, которое описывается. Поэтому программа мыслить как мозг и обладать сознанием не может в принципе.

MoonWatcher в сообщении #1641752 писал(а):
Впрочем, Джеффри Хинтон считает, что ИИ способен испытывать эмоции. По меньшей мере это открытый вопрос: можно ли научить ИИ не только думать, но и чувствовать.

Если кто-то так считает, то сразу приводите и аргументы считающего товарища, а то, может, он пошутил. Что касается Джеффри, у него аргументов нет. Это просто линейная экстраполяция локальных успехов, а наш мир нелинеен. Вот, например, Винтон Серф, тоже не со стороны человек, наоборот, предостерегает от необдуманных инвестиций в ChatGPT, какими бы многообещающими они ни казались.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение09.06.2024, 01:12 
Аватара пользователя


17/10/22
358
Dicson в сообщении #1641864 писал(а):
Что статистика более или менее неадекватна реальному распределению — это факт, доказательств он уже не требует.

Жаль, что об этом не знает Джеффри Хинтон, Илья Суцкевер и другие крупные специалисты, которые считают статистику дорогой к AGI.

Остальное не комментирую - вы там с сами с собой дискутируете.

Dicson в сообщении #1641864 писал(а):
Ссылку можно? Что там специалисты говорят конкретно.

Я точно помню, что такой срок давал Сэм Альтман, но надо искать. Оптимистично настроен и Мустафа Сулейман, а Демис Хассабис говорил, что "полагаю, возможности самонаблюдения и планирования помогут с такими проблемами как галлюцинации".

Dicson в сообщении #1641864 писал(а):
Гомеостаз, который и есть «стремление к самосохранению», — это основание любой жизни, как физической системы. Оно везде, в каждой клетке организма и во всём поведении организма в целом. Появление нервной системы, возможности передвигаться и обучаться, привели к тому, что стремление к самосохранению реализуется в том числе, как стремление к лучшему качеству жизни.

А при чем здесь работа человека за зарплату? Ему дают поручения - он их выполняет. Чем это предпочтительнее аналогичного выполнения поручений искусственным интеллектом - помимо того, что "основание любой жизни"?

Dicson в сообщении #1641864 писал(а):
Речь шла о том, что ИИ всегда будет ведомым. Не ИИ, подумав и порешав между собой, будут человека от работы отстранять, а человек будет решать, где ИИ место, чтобы человеку хорошо было.

Так и люди ведомые, в своей абсолютной массе - им дают получения, они их выполняют. По мере повышения качества агентов ИИ будет расти и их самостоятельность.

Dicson в сообщении #1641864 писал(а):
Ответьте, пожалуйста, что конкретно в плане возможности уборки квартиры «стало очевидно по меньшей мере с «анонсом Gemini, а после анонса GPT-4o сомнений уже не осталось»? Роботы научились ориентироваться в обстановке любой квартиры? Тонкая моторика уже есть? И всему этому учат? Как?

Да, ИИ за последний год научился неплохо ориентироваться в пространстве, описывать его, предсказывать и т.д. Я уже не говорю про обучение роботов на виртуальной реальности. Тонкая моторика как таковая есть уже много лет - сложность состоит прежде всего в её автономном выполнении. Сейчас, когда возникают предпосылки для интеллектуальных роботов, будут активно совершенствовать и моторику.

Dicson в сообщении #1641864 писал(а):
И где они, эти модели? Что они могут? Есть ссылка?

Вы не смотрели анонсы Gemini и GPT-4o?

Dicson в сообщении #1641864 писал(а):
Это радует. И как далеко дело продвинулось? Что-то бегает уже? А то и собачки искусственные были, и мулы у DARPA, и где они все?

В музее древних ценностей. Вы бы еще троянского коня вспомнили... Насчет того как далеко зашло - не знаю, со времени презентации несколько месяцев прошло. Несколько меньше, чем от первых прототипов ткацких станков или паровых машин до нормальных серийных моделей - тогда это заняло десятки лет.

Dicson в сообщении #1641864 писал(а):
Вы понимаете, о чём пишете? Похоже, что нет. Чтобы это всё стало обучающими примерами, нужна соответствующая система. Примеров самих по себе недостаточно. Попробуйте кошку обучить на этом вашем «базисе».

Больше похоже на то, что вы пишете откуда-то из 2000х годов, где на уровне философских категорий доказываете невозможность того, что уже существует в 2020х... Вы совсем не следите за новостями? :?:

Dicson в сообщении #1641864 писал(а):
За пределами ощущений ничего нет. Всё, что человек представляет о других людях или других местах, он представляет только исключительно на основании своего опыта. Потому что слова сами по себе никакого смысла не имеют. В процессе обучения звуки совмещаются с теми или иными его ощущениями и тем самым приобретают для человека тот или иной смысл.

Как человек узнает, что такое любовь, если не любил? Думайте, что пишете-то.

Я-то думаю - а вы не читали то, что я писал выше? :?: Я же вам ровно об этом и говорю всю дорогу - возможно понимание вовсе не исчерпывается тем, как понимает человек. Не говоря уже о том, что вы приводите в пример не человека, а, с точки зрения интеллекта, животное. Не важно какие там у него бабочки в животе порхают, пока он влюблен - важно то как любовь возникает, умирает, проявляется и т.д. А это - контекст фактов, а не его внутренние переживания, которые в контексте познавания мира не стоят абсолютно ничего. Ноль.

Dicson в сообщении #1641864 писал(а):
Постепенное усложнение — это не переход количества в качество. Нужно, чтобы в ответ на количественные изменения скачком появилось новое качество, которого не было изначально. В реальном мире — это переход через точку бифуркации. Бифуркация — это качественное изменение поведения динамической системы при бесконечно малом изменении её параметров. Суть перехода: увеличение интенсивности обмена со средой и рост количества флуктуаций (количественные изменения) в какой-то момент приводит к скачкообразному перестроению системы на новый уровень сложности (появление нового качества). У ИИ таких переходов нет и быть не может, у человека с этими переходами связано всё, начиная от эволюции и морфогенеза до работы мозга. Поэтому мы можем скачком приходить к идеям значительной новизны (озарение новой идеей).

Ключевая фраза "у ИИ таких переходов нет и быть не может". Откуда вы это взяли - математика запрещает эмерджентность, это разве чисто биологическое явление?

Dicson в сообщении #1641864 писал(а):
Мало. Объединяет нейроны в сеть около квадриллиона связей ($10^1^5$). По некоторым подсчётам, если вытянуть все нейронные связи только одной коры в линию, ее длина составит почти три миллиона километров. Для сравнения расстояние до Луны — 384 тыс. км.

Путь будет не сто, а тысяча триллионов - что это меняет? Число параметров ИНС росло на порядки раньше - будет расти на порядки и впредь.

Dicson в сообщении #1641864 писал(а):
Искусственный разум не должен перестраиваться, так как он всего лишь упрощённое подобие человеческого. Но это вы грезили о каких-то новых качествах, которые ни с того ни с сего вдруг появятся у ИИ.

Это не я грезил - это краеугольный факт современной истории ИИ, эмерджентность называется. А еще ИИ не упрощенное подобие человеческого разума - он (если говорить про ИНС) просто вдохновлен какими-то элементами устройства человеческого мозга.

Dicson в сообщении #1641864 писал(а):
То есть эти «агенты» будут заранее знать, как правильно должна функционировать система? Тогда зачем обучение, если уже всё известно? Если вы подгоняете модель под известный результат, то достаточно обучения, а если результат неизвестен, то какие «агенты»?

Только у человека и таких физических систем, как он, есть возможность без какого-либо предварительного плана скачками перестраиваться в более сложное, но адекватное среде состояние. Откройте Википедию, прочитайте, что такое ячейки Бенара, диссипативные структуры, самоорганизация.

Нет, «агенты» НЕ будут заранее знать, как правильно должна функционировать система. Откуда вы это взяли не имею понятия. Какое отношение ячейки Бенара, диссипативные структуры, самоорганизация и прочие умные слова имеют к агентам ИИ я тоже не понял.

Dicson в сообщении #1641864 писал(а):
Я вам написал, стремления — это гомеостаз. У ИИ он невозможен. У вас есть возражения по существу? Если нет, то откуда взялось утверждение «нет никаких проблем с тем, чтобы заложить в ИИ стремления»? Или аргументируйте, или не утверждайте.

Гомеостаз - это что-то из области бытия: самоорганизация материи и прочая синергетика. А стремление - это стремление. Я заказываю такси на Дубровку - и таксист стремится меня туда доставить. Чем это отличается от стремления автопилота сделать то же самое? Квалиа и прочими бабочками, порхающими в животе у таксиста?

Dicson в сообщении #1641864 писал(а):
Вполне вероятно, что так и будет. Но нас ведь не рутина интересует — и так понятно, что когда-нибудь ИИ с ней справится, да это и сейчас уже возможно. За ИИ, конечно, всё перепроверять надо, но тем не менее. Но нам же открытия нужны. Чтобы как Ньютон. А с этим у ИИ проблем, так как для выводов ИИ нужны тексты, а где новизна и открытия, там их ещё нет.

Человек же тексты создаёт, поэтому его стремления растут не только из других текстов, но и из невыразимых языком смутных ощущений, которые заставляют его двигаться в каком-то направлении и только потом понять, куда и зачем он двигался. Иными словами, мозг распознаёт какие-то важные признаки условий, но их недостаточно для конкретизации в точные формулировки. Поэтому человек чувствует, что вот здесь что-то есть, но что конкретно, понимает потом.

ИИ делает и открытия - но мы вроде про AGI говорили. А это - средний человеческий уровень. Искусственный Ньютон - это уже ASI. Если вы видите проблему в том, что для выводов ИИ нужны тексты, то проблемы нет - Ньютону для выводов тоже нужны были тексты. Он читал научные тексты и извлекал из них новые закономерности, которых в этих текстах еще не было. Но это даже 15 лет назад еще было - Data mining называется. Просто в случае с Ньютоном требуется более высокий уровень извлечения скрытых закономерностей. В очередной раз напоминаю: да, я знаю, что Ньютон оперировал другими закономерностями, не текстово-статистическими. Я уже много раз говорил, что ущербность текстово-статистических закономерностей требует доказательства, но в любом случае Ньютон тоже опирался на тексты. А смутные ощущения, про которые вы говорите, можно приписать и ИНС, "рассуждения" которой скрыты как в черном ящике (хотя здесь есть подвижки). Эта смутность - просто неспособность описать ход своих мыслей. Я своих знакомых тоже узнаю смутно - понимаю кто они, но не могу объяснить как я их отличаю от незнакомых.

Dicson в сообщении #1641864 писал(а):
С кем вы согласны? Я написал, что у человека свобода воли есть. А у ИИ её нет и не может быть, хотя бы потому, что в ИИ нет ничего принципиально непонятного — он программа. А свобода воли понятна быть не может. Почему не может, я тоже написал. Не согласны, опровергайте. Но грезить про всякие «спонтанности» не стоит. Потому что и на этот счёт я вам тоже пояснил — см. про переходы количества в качество выше.

Ну значит мы и в этом расходимся... Что касается "в ИИ нет ничего принципиально непонятного — он программа", то это можно сказать и про человека: "в разуме нет ничего принципиально непонятного — он мозг (или что-то в этом роде)". Во-первых, понятность или непонятность устройства или принятия решений никакого отношения к свободе воли не имеет. Генератор случайных числе совершенно непредсказуем - но он тоже программа. Свободу воли я считаю мифом - её вот именно что путают с непониманием мотивов принятия того или иного решения, и соответственно с непредсказуемостью этого решения. Вообще говоря свобода воли, ИМХО, не существует - наше поведение определяется нашей природой, воспитанием, социальной средой и прочими вспышками на солнце. Аналогичные факторы можно заложить и в ИИ - и потехи ради тоже сделать его непредсказуемым, хотя бы через генератор случайных чисел. Но почти не сомневаюсь, что по мере совершенствования ИИ ему и без таких уловок станут присущи и какие-то черты человеческой непредсказуемости, которую принято называть свободой воли.

Dicson в сообщении #1641864 писал(а):
Я бы не возражал, потому что идея великолепная. Но чат-бот не аналог разума. Наш интеллект занимается построением движений в общем контексте стремления к самосохранению. Вот это и есть разум.

Это определение скорее про назначение интеллекта, а не про его суть. Ключевой чертой человеческого интеллекта я считаю способность к извлечению закономерностей.

Dicson в сообщении #1641864 писал(а):
Какие ещё «элементы сознания» учёные обнаружили? Главное, как они их обнаружили? Ведь никто не знает, что такое сознание? И вообще при чём здесь сознание? Сознание — это отражение сложности системы. Создайте программу, столь же сложную, как интеллект человека, и наплевать, есть ли у неё сознание. Плавает как утка, и хорошо. Но проблема в том, что мыслит у нас неравновесный упорядоченный объём веществ и химических реакций, то есть специфический «кусок» настоящей, чистой реальности, а программа — это хоть и тоже реальность, но с душком, её суть в том, что это описание, а описание — это всегда упрощение того явления, которое описывается. Поэтому программа мыслить как мозг и обладать сознанием не может в принципе.

Какие и как - можно почитать здесь и здесь.

Что касается "описание — это всегда упрощение того явления, которое описывается". Бывает и наоборот: в явлении вы жмуритесь от солнца, а в его описании - термоядерные реакции... Описание работы мозга тоже потребует намного большей по объему и сложности информации, чем информация, которая в этом мозге содержится. Грубо говоря, тысяча мудрецов может думать-думать, но так и не понять полет мыслей дурака... Я уже не говорю про совсем очевидную вещь: упрощение сознание тоже может быть все еще сознанием - ваше утверждение "не может в принципе" безосновательно категорично.

Но все это - умозрительное философствование. Вы же сами говорите, что никто не знает что такое сознание - так откуда ваша уверенность, что это нечто непонятное и неведомое нам не возникнет спонтанно в какой-то сложной системе? И уж конечно никто не претендует, что это будет сознание как у человека. Вы слишком антропоцентричны в своих рассуждениях - между тем и интеллект, и сознание могут быть совершенно другими. Поэтому создание ASI зачастую представляют как гипотетический контакт с внеземным разумом.

Dicson в сообщении #1641864 писал(а):
Если кто-то так считает, то сразу приводите и аргументы считающего товарища, а то, может, он пошутил. Что касается Джеффри, у него аргументов нет. Это просто линейная экстраполяция локальных успехов, а наш мир нелинеен. Вот, например, Винтон Серф, тоже не со стороны человек, наоборот, предостерегает от необдуманных инвестиций в ChatGPT, какими бы многообещающими они ни казались.

Это по-вашему у него нет аргументов - сам Хинтон вряд ли с этим согласится. Что касается инвестиций в ИИ и его будущего, то мнения ученых разделились примерно пополам.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение09.06.2024, 03:34 


10/03/16
4444
Aeroport
MoonWatcher в сообщении #1641876 писал(а):
Генератор случайных числе совершенно непредсказуем


Если (рассматриваем RNG с равномерным распределением $U[0;1]$) его текущая реализация 0.01, то с вероятностью 99% следующая будет больше неё. Человек предсказуем сильно меньше: попробуйте угадать, будет ли Dicson через год вот с таким лицом :facepalm: перечитывать гигабайты текста про свой гомеостаз.

MoonWatcher в сообщении #1641876 писал(а):
Свободу воли я считаю мифом - её вот именно что путают с непониманием мотивов принятия того или иного решения


То-то и оно - мотивы решения понятны, это не RNG. Фишка в том, что мотивы решения, противоположного принятому, тоже были бы понятны. То есть например я выбрал быть хорошим, и Вам понятно, почему я выбрал быть хорошим - потому что быть хорошим хорошо. Но если бы я выбрал быть плохим, Вы бы мои мотивы тоже поняли - хороший это раб системы, прозомбированный родителями несчастный неудачник, а я хочу быть свободным, счастливым и богатым. Если девушка ушла, это понятно - кругом столько загорелых накачанных парней; если девушка осталась, это тоже понятно - она хочет интересного собеседника, а не мясо для [подставить_цитату_из_Cyberpunk_2077]. Кошка пошла сюда, потому что тут её погладят, но могла бы (ожидаемо!) пойти туда, потому что там ей дадут мясо. Никакие природа, воспитание, социальная среда и прочие вспышки на солнце не помогут предсказать конкретное решение из набора альтернатив, каждая из которых логична и обоснована - это и есть понимается под свободой воли, видимо.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение09.06.2024, 15:27 


27/02/09
2835
Dicson в сообщении #1641864 писал(а):
Гомеостаз, который и есть «стремление к самосохранению», — это основание любой жизни, как физической системы. Оно везде, в каждой клетке организма и во всём поведении организма в целом. Появление нервной системы, возможности передвигаться и обучаться, привели к тому, что стремление к самосохранению реализуется в том числе, как стремление к лучшему качеству жизни

Этот вопрос не имеет напрямую отношения к теме ИИ, но, все же, требует разъяснения... Дело в том, что для жизни, как физической системы нет никакого "стремления к самосохранению"(если не принимать во внимание пресловутый сильный антропный принцип - вещь темную, почти религиозную) Да, в неравновесных условиях возможно зарождение и развитие диссипативных структур. Но не как "стремление", а как стационарные(включая периодические и странные аттракторы) решения физических уравнений (стат. физика, физ. кинетика, гидромеханика и пр.). Вот из этих уравнений и "вылезают"(путем нетривиальных упрощений) диссипативные структуры. Где здесь "стремление"? Ткните пальцем, в какой из физических констант сидит стремление к самосохранению?! Одни диссипативные структуры исчезают, другие - появляются, и все это, заметьте по физическим законам плюс фундаментальные физические константы(своего рода начальные данные "творения"). Кроме этого ничего нет-с). И не надо сюда привлекать метафизическое "стремление к самосохранению". Вы застряли на "ячейках Бенара", впрочем, я кажется, уже писал об этом.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение09.06.2024, 16:04 


10/03/16
4444
Aeroport
druggist в сообщении #1641899 писал(а):
Но не как "стремление", а как стационарные(включая периодические и странные аттракторы) решения физических уравнений (стат. физика, физ. кинетика, гидромеханика и пр.). Вот из этих уравнений и "вылезают"(путем нетривиальных упрощений) диссипативные структуры. Где здесь "стремление"?


"Стремление" (взял в кавычки на всякий случай) человека к обладанию виллой на Майами тоже "вылезает" из уравнений химической кинетики, завязанной на физические процессы поглощения света рецепторами сетчатки при просмотре фотографий с сайта недвижимости и колебания барабанной перепонки при разговорах с риэлторами. Как и весь арсенал антропоморфизма, слово "стремление" служит для описания всей этой сложной "кухни" на понятном простому смертному уровне абстракции - ну, типа как прослойка DirectX позволяет управлять сложнейшей видяхой на языке высокого уровня (понятно, что всё в конце концов упирается в голую физику и при выполнении всех этих команд "дёргаются за ниточки" какие-то там транзисторы, но как на самом деле устроена видеокарта, не знает никто, кроме самих её разрабов, поэтому приходится довольствоваться управлением через высокоабстрактную прослойку и утираться, если вдруг что-то идёт не так). Понятное дело, что у ячеек Бенара ничего подобного нет, так же как нет высокоабстрактной прослойки типа DirectX у электрического чайника. То есть Dicson доказывает в общем-то почти правильное утверждение через неправильные предпосылки )

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение09.06.2024, 16:09 


27/02/09
2835
ozheredov в сообщении #1641901 писал(а):
ну, типа как прослойка DirectX позволяет управлять сложнейшей видяхой на языке высокого уровня (понятно, что всё в конце концов упирается в голую физику

Пардон, у создателей DirectX была цель создать систему управления, а какая цель у ячеек Бенара?))

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 349 ]  На страницу Пред.  1 ... 17, 18, 19, 20, 21, 22, 23, 24  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group