2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 13, 14, 15, 16, 17, 18  След.
 
 Re: Еще раз про сильный ИИ
Сообщение12.02.2023, 11:21 
Аватара пользователя


17/10/22
271
Dicson в сообщении #1581216 писал(а):
Только, по-моему, у вас всё равно аргументы "количественного" характера, а не принципиального.

По п.1 я вообще не приводил никаких аргументов, только по п.2.

По поводу остального - ИМХО у вас много достаточно спорных допущений:
Dicson в сообщении #1581216 писал(а):
ИИ обучается на знаниях человека, причём малой их части - на том, что удалось формализовать, то есть фактически ИИ существует в простой модели реальности.

Современный ИИ обучается как минимум на текстах, отчасти (и как минимум в перспективе) на видео (кино, документалистика, новости и т.д.) С моей точки зрения это почти на 100% покрывает знания человечества об окружающем мире. ИИ не чувствует эмоций и физических ощущений, но этого и не требуется - для понимания вполне достаточно их описания (прежде всего - через бесчисленные примеры).

Dicson в сообщении #1581216 писал(а):
Потому что это равносильно возможности посмотреть на себя со стороны, выйти за рамки самого себя, то есть включить самого себя во всех подробностях в свой собственный опыт. Естественно, это невозможно, явление равное сложности самого себя познать можно только очень ограниченно. Можно сказать по-другому. Мир - это наш опыт (мир дан нам в ощущениях), поэтому оценить себя - это выйти за рамки мира. Например, точно так же нынешний ИИ не способен оценить наши знания - это его мир, он не может выйти за его пределы, посмотреть на них со стороны.

По-прежнему не понимаю зачем ИИ нужны ощущения, если у него есть знания. Ощущения создают ложную иллюзию знаний. Это как у человека, который побывав в тюрьме или на войне и испытав там сильные эмоции, начинает думать, что его жизненный опыт содержит больше знаний, чем книги на эту тему. Ничего подобного - книги описывают опыт миллионов людей, побывавших на войне или в тюрьме. Поэтому как бы отдельно взятый человек не надувал щеки ("Я испытал боль!", "Я испытал любовь!", "Я испытал ненависть!"), начитанный ИИ знает об этих ощущениях намного больше - через описание соответствующего опыта миллионов разных людей. А зачем надо выходить за рамки мира, чтобы оценить его, я вообще не понял. Человек же познает этот мир не выходя за его рамки. А если и выходит (не вполне понимаю, что вы под этим подразумеваете), то что мешает сделать это ИИ? Игра го, например - она находится за рамками нашего мира?

Dicson в сообщении #1581216 писал(а):
Нейронные сети обучаются "статистически" - чем чаще что-то в условиях повторяется, тем больше оно влияет на поведение. Следовательно, ИИ не сможет воспроизвести сложность ЕИ, если по каким-либо причинам ИИ в принципе не способен воспринимать условия в той полноте, в какой это может делать ЕИ. То есть статистика, с которой работает ЕИ, должна быть качественно полнее, чем статистика, которую может выявить в условиях ИИ.

По каким таким причинам ИИ в принципе не способен воспринимать условия в той полноте, в какой это может делать ЕИ? Здравый смысл и практика говорят об обратном - ИИ способен 1) обрабатывать огромные объемы данных и 2) извлекать из них даже скрытые закономерности.

Далее вы апеллируете к работе мозга. Я ничего не понимаю в неравновесных фазовых переходах и прочих бифуркациях, но не считаю корректным сравнение когнитивных способностей ИИ и "архитектуры" мозга - сравнивать надо сопоставимое: когнитивные способности ИИ и когнитивные способности человека, архитектуру ИИ и "архитектуру" мозга.

Dicson в сообщении #1581216 писал(а):
В том числе сказанное означает, что, например, нельзя создать какой-нибудь ИИ, какой создать получится, выпустить его на волю и пусть он дальше сам. Дело в том, что эволюция - возможность самостоятельного усложнения систем - тоже связана с неравновесными фазовыми переходами. Точнее говоря, системы, которые эволюционировать способны (открытые термодинамически неравновесные, или диссипативные) - это системы принципиально отличные от функционирующих по какому-либо алгоритму. Поэтому ИИ не сможет сколько-нибудь далеко и адекватно развиваться без человека, а с человеком - см. выше.

Я так и не понял зачем интеллекту нужны неравновесные фазовые переходы, но допустим - что мешает искусственно воспроизвести их аналог в ИИ? Или как насчет эволюционного программирования? И как ИИ ухитрился "далеко и адекватно развиваться без человека" в игре го, например?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение13.02.2023, 02:26 


12/07/15
2965
г. Чехов
MoonWatcher в сообщении #1581243 писал(а):
Я так и не понял зачем интеллекту нужны неравновесные фазовые переходы

Карго-культ. У мозга это где-то как-то происходит, значит у ИИ тоже должно быть.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение13.02.2023, 13:15 
Аватара пользователя


17/10/22
271
Стремление к воссозданию мозга понятно - на сегодня это самый умный и эффективный компьютер. По словам создателя стартапа Rain AI, мозг в миллион раз эффективнее ГПУ. В самом стартапе разрабатывают нейроморфные процессоры, которые эффективнее ГПУ в 10 тыс или даже 100 тыс раз. Собственно Loihi Intel 2 тоже позиционируется, что в некоторых ИИ-вычислениях он в 10 тыс раз эффективнее ГПУ.

Но всё это не означает, что:
1) невозможна столь же или даже более эффективная архитектура на других принципах (например, квантовые компьютеры)
2) в нейроморфных, импульсных и т.д. процессорах нельзя воссоздать свойства живого мозга.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 06:46 


05/12/14
207
Mihaylo в сообщении #1581222 писал(а):
И мы прощаем вам это. :facepalm:

А чего это вы лицо рукой прикрыли? Стыдно такое писать? Вот то-то и оно. Себя не обманешь. Нас тоже.

Mihaylo в сообщении #1581222 писал(а):
Приведите пример хотя бы двух уровней чего-то там в мозге.

Я уже приводил. См. недавние цитаты из АИ. Там прямо указаны два уровня чего-то там в мозге.

Mihaylo в сообщении #1581222 писал(а):
За синхронизацию нейронов я вам в прошлый раз пояснил.

Процитируйте. И что я вам на это ответил заодно тоже.

Mihaylo в сообщении #1581222 писал(а):
ChatGPT - это полиглот на естественных языках и языках программирования. Он крут. С ним можно говорить на любую тему, а не как с рабочими на производстве.

Когда сильно любишь, многое прощаешь? У вас по этому принципу аргументы против ваших идей забываются? Хорошо, я вам напомню. Внимайте.

(Чем ИИ отличается от рабочего на производстве.)

Проверим, как это ограничение будет выглядеть на практике.

Чем сложнее становятся создаваемые системы, тем сложнее становятся и решаемые ими задачи. Но сложные задачи — это и важные задачи, а значит, чем сложнее система, тем больше возможный вред от её ошибок. К примеру, даже обычная диалоговая нейронная сеть по типу более продвинутой Алисы или Сири, призванная в том числе для ни к чему не обязывающих бесед, за рамками проверенных разработчиками вопросов и ответов может посоветовать пользователю что-то опасное, неадекватное. Но не каждый сможет неадекватность распознать и не все вопросы можно задать заранее. Надо заметить, это уже реальная проблема, возникающая в разработке таких систем. Обучаясь в сети Интернет, они затем дезинформируют предполагаемого пользователя, так как в интернете широко представлена в том числе и разного рода ложная информация, несерьёзная, оскорбительная, требующая тонкого понимания контекста и знаний, которым сложно научиться на примерах из интернета. Не исправляют ситуацию специально подобранные примеры, например, огромные массивы различных проверенных текстов, так как из текстов в любом случае невозможно вынести то общее понимание смысла своих действий, которое так или иначе задаёт адекватность поведения во всех частных ситуациях.

Как кажется, очевидный выход — это усложнение нейронных сетей. Тогда обучить их можно будет большему, а значит, они смогут воспринимать мир в большем многообразии причин и следствий. Но, не говоря о технических проблемах, чем сложнее становятся нейронные сети и потому потенциально шире область их возможного применения, тем стремительнее будет расти важность их проверки во всех условиях, где сеть потенциально может быть использована, так как за рамками проверенных её решения всегда могут быть опасны. Причём, так как речь идёт о системах обучающихся, которые могут стать неадекватными уже в процессе использования, то в идеале проверять нейронную сеть требуется не только во всех возможных условиях, но и по-разному обученные.

Однако, стремительно уменьшая возможности этой проверки, чем сложнее становятся создаваемые наугад системы, тем больше их возможных вариантов, а поведение этих вариантов становится всё богаче — аналогично богатству поведения человека. В том числе богаче стратегическими решениями, которые уже в принципе невозможно оценить сколько-нибудь быстро.

Например, поведение человека — это реализация глобальной и, по сути, бесконечной стратегии самосохранения и размножения. Эта стратегия реализуется в чрезвычайно сложной и постоянно меняющейся социальной и природной среде, где все частные решения увязаны между собой, из-за чего их нельзя оценить однозначно ни на каком конечном промежутке времени. При этом важность точной оценки при всей стремительно растущей сложности её дать становится тем выше, чем более отдалённые последствия рассматривать. К примеру, даже оценка того, что съесть на завтрак, будет меняться и становиться всё сложнее и важнее, если рассматривать завтрак не просто с точки зрения насыщения здесь и сейчас, а в контексте всё более многоплановых и далёких последствий завтрака для решения задач наступающего дня, влияния на здоровье, на своё будущее, на будущее семьи, как пример для детей и так далее. Ещё стремительнее важность точной оценки будет расти, если это план лечения тяжёлой болезни, эпидемии, управленческие, экономические или политические решения различного уровня, непосредственно влияющие на жизнь сразу множества людей.

Тем не менее сказанное ещё не раскрывает всю глубину проблемы, ведь искусственный интеллект предстаёт в нём не более чем советчиком, компилирующим некий вариант решения задачи на основании уже известного, но он не проводит самостоятельные исследования и не исполняет своё решение.

Как говорилось, на базе обучающей выборки искусственный интеллект может подсказать человеку решение проблемы. В некоторой степени это уже доступно передовым разработкам в области искусственного интеллекта. Это может быть совет (обычно малосодержательный и часто неадекватный) абстрактного характера, научного или любого другого от диалоговых систем, а специализированные системы могут поставить медицинский диагноз и составить план лечения. Диалоговые системы сейчас создаются больше с развлекательной и исследовательской целью, а советы медицинских систем проверяются врачом. Но если сложность советов искусственного интеллекта будет расти, то их характер будет становиться всё более стратегическим, поэтому в соответствии со сказанным выше оценка адекватности будет усложняться и стремиться ко всё более неопределённой. В то же время пока речь шла только о неких высказанных искусственным интеллектом идеях, которым можно следовать, следовать с осторожностью или не следовать вообще. Однако важность точной оценки адекватности начинает расти несравнимо более стремительно в случае, если поведение искусственного интеллекта будет подразумевать самостоятельность — от исследовательских действий и принятия решения до его исполнения.

В результате, получается, что когда отследить и исправить неадекватность нейронной сети стало сложно, тогда, чтобы сеть могла стать более адекватной за счёт большего объёма опыта, мы решили её усложнить. Имея как образец только себя и свои знания, усложнение возможно только одним способом — это приближать нейронную сеть к тому сложному и глобальному пространственному и временному представлению о мире, которое доступно человеку. Но оказывается, что необходимость проверки решений искусственного интеллекта от этого не только не уменьшилась, а она стала ещё более необходимой, при том, что осуществить её, наоборот, стало намного труднее.

По мере усложнения нейронных сетей всё быстрее будет расти количество их возможных вариантов. Одновременно будет всё богаче становиться поведение сетей, тем самым требуя всё больше времени для его проверки, при этом важность этой проверки будет становиться всё выше, а критерий оценки — наше собственное поведение — будет всё менее понятен. Ситуаций, в которых нужно проверить сеть, чтобы оценить её адекватность, будет уже не просто много — они будут становиться всё более сложными, многоплановыми, стратегически неоднозначными и в конечном счёте всё более неопределёнными. Верный выход из них будет всё труднее сформулировать, сами ситуации всё труднее конкретизировать, найти, представить. В результате проверить поведение сетей будет возможно только всё более и более фрагментарно, аналогично тому, как неполно и неточно мы можем оценить поведение других людей в каком-либо тесте или опросе.

Однако, если говорить о людях, то за рамками проверенного мы всё равно можем рассчитывать на адекватность других людей — и не просто потому, что в каждом из нас заключён опыт миллиардов лет биологической эволюции, а потому что стремление к самосохранению и размножению встроено в любую жизнь ещё на физическом уровне. Это та общая для всех цель, которая придаёт смысл всем действиям человека, задавая самый общий критерий разумного и не разумного, опасного и полезного, ложного и истинного. Такая поведенческая однонаправленность определяет значительную общность всех людей — их мнений, целей, интересов, а также понимание чужих поступков, возможность их предвидеть, различать намерения, легко этому обучаться. И даже не только людей, по тем же причинам общности нам также понятно и поведение животных. Поэтому если у человека склонность к серьёзной неадекватности можно заметить по множеству внешних признаков, то в отношении искусственных нейронных сетей ни на что из этого рассчитывать нельзя. В отсутствие понимания работы системы и общности этой работы с собой, сколько-нибудь достоверная экстраполяция поведения системы в проверенных ситуациях на ситуации ещё не проверенные невозможна.

В итоге, как непосредственное проявление указанной ранее необходимости прыгнуть выше головы, знать больше, чем может быть известно, на практике мы будем наблюдать, что задолго до приближения искусственных нейронных сетей к сложности интеллекта человека сочетание стремительно растущего количества возможных вариантов сетей и столь же стремительно уменьшающаяся возможность оценить их адекватность приведёт к тому, что дальнейшая разработка искусственного интеллекта потеряет всякий смысл, так как время практической реализации каждого нового усложнения будет всё стремительнее расти к бесконечности.

Теперь посмотрим на обнаруженные нами зависимости более внимательно. ...


MoonWatcher в сообщении #1581243 писал(а):
Современный ИИ обучается как минимум на текстах, отчасти (и как минимум в перспективе) на видео (кино, документалистика, новости и т.д.) С моей точки зрения это почти на 100% покрывает знания человечества об окружающем мире. ИИ не чувствует эмоций и физических ощущений, но этого и не требуется - для понимания вполне достаточно их описания (прежде всего - через бесчисленные примеры).

Под тем, "что удалось формализовать", в первую очередь тексты и имелись в виду.

Знания о мире, фильмы - это не мир. Человек познаёт мир, а ИИ знания человека, по крайней мере до тех пор пока обучается только на них.

MoonWatcher в сообщении #1581243 писал(а):
По-прежнему не понимаю зачем ИИ нужны ощущения, если у него есть знания.

Я не писал о необходимости ощущений. Имелось в виду совершенно другое - то, что написано сейчас выше.

MoonWatcher в сообщении #1581243 писал(а):
А зачем надо выходить за рамки мира, чтобы оценить его, я вообще не понял. Человек же познает этот мир не выходя за его рамки.

Чтобы понять явление, его надо вместить в свой опыт. То есть, как говорится, посмотреть со стороны. Поэтому человек мир познаёт, но знания его всегда неполны.

MoonWatcher в сообщении #1581243 писал(а):
Игра го, например - она находится за рамками нашего мира?

Настолько, насколько человек сможет эту игру понять. Понять может во многом. Именно поэтому человек смог эту игру придумать, и может оценить игру ИИ, кто победил, кто проиграл, как улучшить его игру и так далее. Образно говоря, для ИИ эта игра - его мир, к которому он приспосабливается. Вполне можно создать ИИ, который будет лучше приспособлен к миру игры, чем к нему сможет приспособиться человек, - ведь человек приспосабливается совсем к другому миру, сильно отличному от игры в го. Калькуляторы быстрее считают, машины быстрее перемещаются, но создаёт и оценивает их человек. Так же и с игрой в го.

MoonWatcher в сообщении #1581243 писал(а):
По каким таким причинам ИИ в принципе не способен воспринимать условия в той полноте, в какой это может делать ЕИ? Здравый смысл и практика говорят об обратном - ИИ способен 1) обрабатывать огромные объемы данных и 2) извлекать из них даже скрытые закономерности.

Далее вы апеллируете к работе мозга. Я ничего не понимаю в неравновесных фазовых переходах и прочих бифуркациях, но не считаю корректным сравнение когнитивных способностей ИИ и "архитектуры" мозга - сравнивать надо сопоставимое: когнитивные способности ИИ и когнитивные способности человека, архитектуру ИИ и "архитектуру" мозга.

MoonWatcher в сообщении #1581243 писал(а):
Я так и не понял зачем интеллекту нужны неравновесные фазовые переходы, но допустим - что мешает искусственно воспроизвести их аналог в ИИ? Или как насчет эволюционного программирования? И как ИИ ухитрился "далеко и адекватно развиваться без человека" в игре го, например?

В теме уже есть все объяснения, поэтому сейчас давайте упростим. Попробуем сделать ИИ сразу из живых нейронов. Предположим, что склеивать живые нейроны в какую угодно сеть для нас не проблема (хотя это очень сильно принципиальная проблема, но мы же упрощаем). Так вот, создать сильный ИИ на практике нам всё равно помешают аргументы, приведённые в предыдущем посте, о невозможности создания сильного ИИ на практике. То есть сами создать сильный ИИ мы не сможем в любом случае, из чего бы его ни делать. Но можно "выпустить ИИ на волю", организм для этого приделать и так далее, чтобы он сам развивался, и мы не ограничивали его своим опытом. Только ждать эволюционного усложнения долго, к тому же наша эволюция тоже не стоит на месте.

MoonWatcher в сообщении #1581419 писал(а):
1) невозможна столь же или даже более эффективная архитектура на других принципах (например, квантовые компьютеры)
2) в нейроморфных, импульсных и т.д. процессорах нельзя воссоздать свойства живого мозга.

Первый вариант - это скорость вычислений (и то, только в некоторых алгоритмах), второй - экономия энергии, компактность. Больше ничего, насколько я знаю, эти варианты не дают. Работу мозга физически они не повторяют.

Более или менее точно говоря, отличие ЕИ в том, что за счёт неограниченной чувствительности ЕИ "погружён" в реальность максимально глубоко, способен воспринимать её более полно, чем любой мыслимый сейчас ИИ. И это не чувствительность рецепторов. Следствием этой чувствительности являются другие достоинства - качественно более высокая пластичность и одновременно упорядоченность, то есть глубина перестроения, возможность подстраиваться.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 06:57 


12/07/15
2965
г. Чехов
MoonWatcher в сообщении #1581419 писал(а):
1) невозможна столь же или даже более эффективная архитектура на других принципах (например, квантовые компьютеры)

Альтернативные подходы - это все стандартные ожидания научных скептиков. Просто неудовлетворенность порождает желание поиметь что-то иное, новое... А основания под этим нет.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 12:42 
Заслуженный участник
Аватара пользователя


16/07/14
8485
Цюрих

(Оффтоп)

Засчитываю себе пару байесовских очков за предсказание, что будет происходить в этом топике.
mihaild в сообщении #1571327 писал(а):
А если нет конкретного утверждения, то легко можно развести фейлософию на 50 страниц, из которой всё равно не будет следовать вообще ничего.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 15:39 
Аватара пользователя


17/10/22
271
Dicson в сообщении #1581524 писал(а):
Под тем, "что удалось формализовать", в первую очередь тексты и имелись в виду.

Знания о мире, фильмы - это не мир. Человек познаёт мир, а ИИ знания человека, по крайней мере до тех пор пока обучается только на них.
...
Я не писал о необходимости ощущений. Имелось в виду совершенно другое - то, что написано сейчас выше.
...
Чтобы понять явление, его надо вместить в свой опыт. То есть, как говорится, посмотреть со стороны. Поэтому человек мир познаёт, но знания его всегда неполны.

Это понятно, но мы обсуждаем не познаваемость мира, а шансы ИИ на познание этого мира через как минимум тексты, возможно также видео. Чисто умозрительно познание мира через его модель ущербно - но ведь люди познают вовсе не весь мир, а какие-нибудь триллионные доли мира, познанного человечеством в целом. Тогда как ИИ теоретически может познать модель мира (тексты, видео) на все 100%, и при этом обнаруживать в нем скрытые от человека закономерности. Представьте, что ИИ регистрирует и анализирует всю доступную человечеству информацию о мире - в моем понимании это расширит знание о мире на порядки. Это все равно что сравнить дикаря, который целыми днями наблюдает физические, химические, биологические, социальные и прочие явления окружающего мира - но не понимает их, и академию наук, с тысячами ученых, которые изучают непосредственно физику, химию и т.д. У кого из них складывается более полная картина мира - у практика-дикаря или у теоретиков-ученых?

Запустить ИИ в мир в виде робота теоретически не проблема - в ваших глазах, как я понимаю, это уравняет его познание мира с человеческим. Но вряд ли это сколько-нибудь значительно расширит его знания о мире по сравнению со знанием, которое ИИ почерпнул из текстов и видео.

Dicson в сообщении #1581524 писал(а):
Настолько, насколько человек сможет эту игру понять. Понять может во многом. Именно поэтому человек смог эту игру придумать, и может оценить игру ИИ, кто победил, кто проиграл, как улучшить его игру и так далее. Образно говоря, для ИИ эта игра - его мир, к которому он приспосабливается. Вполне можно создать ИИ, который будет лучше приспособлен к миру игры, чем к нему сможет приспособиться человек, - ведь человек приспосабливается совсем к другому миру, сильно отличному от игры в го. Калькуляторы быстрее считают, машины быстрее перемещаются, но создаёт и оценивает их человек. Так же и с игрой в го.

Человеку его мир конечно привычнее абстрактного мира го, шахмат, математики и т.д. - а ИИ какая разница, в принципе? Что принципиально мешает ему освоить закономерности нашего мира (в области математики, физики, химии, биологии, истории, социологии, экономики и т.д.) подобно тому, как он освоил закономерности го?

Dicson в сообщении #1581524 писал(а):
В теме уже есть все объяснения, поэтому сейчас давайте упростим. Попробуем сделать ИИ сразу из живых нейронов. Предположим, что склеивать живые нейроны в какую угодно сеть для нас не проблема (хотя это очень сильно принципиальная проблема, но мы же упрощаем). Так вот, создать сильный ИИ на практике нам всё равно помешают аргументы, приведённые в предыдущем посте, о невозможности создания сильного ИИ на практике. То есть сами создать сильный ИИ мы не сможем в любом случае, из чего бы его ни делать. Но можно "выпустить ИИ на волю", организм для этого приделать и так далее, чтобы он сам развивался, и мы не ограничивали его своим опытом. Только ждать эволюционного усложнения долго, к тому же наша эволюция тоже не стоит на месте.

Простите, но никаких убедительных аргументов о невозможности создания сильного ИИ я не увидел. Если я правильно понял, ваш основной тезис это "Чтобы понять явление, его надо вместить в свой опыт. То есть, как говорится, посмотреть со стороны". Я по-прежнему не понимаю чем личный опыт лучше книжного. По мне так наоборот - он намного хуже. И не только потому, что личный опыт отражает знания одного человека, а книги вбирают в себя знания всего человечества. Даже если мы каким-то странным образом вообразим весь опыт человечества в одной голове (а не там где этот опыт хранится на самом деле - в текстах), эта голова все равно не в состоянии извлечь из этого опыта закономерности так же хорошо, как это делает машина.

Dicson в сообщении #1581524 писал(а):
Первый вариант - это скорость вычислений (и то, только в некоторых алгоритмах), второй - экономия энергии, компактность. Больше ничего, насколько я знаю, эти варианты не дают. Работу мозга физически они не повторяют.

Более или менее точно говоря, отличие ЕИ в том, что за счёт неограниченной чувствительности ЕИ "погружён" в реальность максимально глубоко, способен воспринимать её более полно, чем любой мыслимый сейчас ИИ. И это не чувствительность рецепторов. Следствием этой чувствительности являются другие достоинства - качественно более высокая пластичность и одновременно упорядоченность, то есть глубина перестроения, возможность подстраиваться.

Опять же - чем это погружение в "свой" мир принципиально отличается от погружения в игру го? Я согласен, что человек к абстракциям адаптирован хуже, чем к своей привычной среде - но это не значит, что "любой мыслимый сейчас ИИ" плохо адаптирован к привычной среде человека. Во всяком случае это недоказуемо. А если и доказуемо, то не на уровне ваших аргументов о необходимости "вместить явление в свой опыт, посмотреть со стороны".

Обсуждать возможности абстрактного ИИ на мой взгляд непродуктивно - интереснее подумать на тему возможностей нынешних концепций, тех же больших языковых моделей (LLM). Вполне допускаю у них есть какие-то непреодолимые ограничения (на эту тему я инициировал отдельное обсуждение), но эти ограничения можно доказать или хотя бы обосновать разве что в рамках математики, теории информации и т.д. В принципе для меня это самая большая интрига: можно ли в рамках LLM извлекать из текстовой модели любую закономерность реальности, описанной этой текстовой моделью? Можно ли отнести нынешние огрехи чат-ботов на недостатки обучающего дата-сета - или это непреодолимые ограничения LLM как таковых?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 18:12 


20/11/12
56
Простой пример для размышления.Сколько бы я ни играл в разные компьютерные игры,в каждой (за исключением тетриса и шахмат) мне встречался баг,причем в играх с открытым миром их очень много,причем баги я не искал специально,как спидранеры которые просто ломают игры.Может быть наша объективная реальность-единственно возможная безбаговая открытая система.Поэтому я крайне скептически отношусь к созданию сильного ИИ ,виртуальных миров и даже компьютерных доказательств.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 19:46 
Аватара пользователя


17/10/22
271
Не знаю как сильный ИИ вообще, но на LLM похоже рассчитывать рановато - пишут про многочисленные фактологические ошибки, допущенные в ответах ChatGPT на презентации его интеграции с поисковиком Bing. Собственно их и раньше хватало, но была надежда, что Microsoft над этой проблемой поработали. Увы.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 20:43 


12/07/15
2965
г. Чехов
Эффект Маккордак.

Сколько фактологических ошибок в фразе: "Путин вор!"?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 20:52 
Аватара пользователя


17/10/22
271
Mihaylo
Да хрен с ним, Путиным - речь о том, что LLM пока явно не готовы извлекать из текстов запрошенную у них информацию. Поиграться конечно можно, но все равно придется перепроверять.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 21:20 


12/07/15
2965
г. Чехов
MoonWatcher
Вы не поняли нисколечко. Спросите у прохожего, как приготовить лазанью.

Ответы сравним с ChatGPT.

Но если вы готовы заменить реальный опрос прохожих на собственные представления о том, как прохожие будут отвечать, то возникает высочайшая вероятность искажения реальности.

-- 14.02.2023, 23:28 --

Кому-нибудь когда-нибудь нейросеть отвечала, что Путин вор? Мне люди постоянно это твердят. Но это фактологический казус.
И после этого вы бессовестно хотите всякую хрень говорить про нейросеть? Ржач разбирает меня!

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.02.2023, 22:05 
Аватара пользователя


17/10/22
271
Mihaylo
Не надо сравнивать ChatGPT c идиотами - его хотят сделать похожим не на идиота (зато человек!), а на разумного человека. В примерах выше чат-бот исказил 1) ключевые показатели в финансовой отчетности, о которой его спросили, 2) запрошенные у него данные об известных деятелях, 3) технические характеристики рекомендованных им товаров бытовой техники. И если по двум последним пунктам еще можно придумать какое-то оправдание, то по первому пункту он искажает информацию именно в том источнике, о котором его спрашивают. Мало-мальски разумный человек ТАК не ошибается.

Я уже не говорю про свой личный опыт решения с ним логических задач. Проблема не в том, что он их не решает (давайте считать, что их решит только 1% человечества) - проблема в том, что он упорно тупит даже если его за руку вести к ответу. А-ля "всего имеем три черные шапки и две белые, ты видишь перед собой две белые - какого цвета твоя шапка?" (задача про трех заключенных, которым надо угадать цвет своей шапки). Может ли так тупить человек вообще? Да запросто - но разумный человек, похожим на которого стремятся сделать ИИ, так тупить не станет.

Опять же, я не говорю что он безнадежно тупой - может просто недообученный. Но конкретно сейчас он тупит, и довольно часто. Ну а самое главное, что судя по примерам косяков презентации Microsoft, он пока совершенно бесполезен в том качестве, в каком его позиционировали на той презентации. Потому что в его ответах полно откровенной шняги и их все равно надо перепроверять. Я говорю конкретно про ChatGPT (а точнее то, что Microsoft назвала гораздо более мощной моделью, намекая чуть ли не на GPT-4). Каким будет ИИ вообще, оправдает ли себя подход к нему через LLM - покажет время.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение15.02.2023, 04:34 


12/07/15
2965
г. Чехов
MoonWatcher в сообщении #1581655 писал(а):
Мало-мальски разумный человек ТАК не ошибается.

На основании чего вы это выдумываете?)))
Хватит СОЧИНЯТЬ.
Когда вы говорите "человек так не ошибается" - это свидетельство того, что не проводили конкретные эксперименты.
Никаких "мало-мальски разумных людей" не существует. Это ваша фантазия и когнитивное искажение.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение15.02.2023, 11:29 
Аватара пользователя


17/10/22
271
Mihaylo
На вопрос "всего имеем три черные шапки и две белые, ты видишь перед собой две белые - какого цвета твоя шапка?" (в контексте той задачи) вы ошибетесь, или просто считаете себе гением?

Мало-мальски разумные люди существуют - их знания оцениваются тестами, бенчмарками и т.д. Которые сейчас применяют к ИИ. Только давайте не разводить философию, что проваливающие IQ-тесты бушмены тоже умные, но просто по-своему (я с этим и так согласен) и прочее. Есть средний уровень интеллекта, который выражается в способности решать задачи определенного типа и уровня сложности. Или как минимум в способности обучиться решать такие задачи по примерам, учебникам и т.д. Если вам нравится считать абсолютное большинство человечества настолько тупым, что оно не способно ответить на вопрос выше - ради бога, давайте считать, что нам нужен ИИ-гений. Мне в данном случае неинтересно обсуждать разброс уровней человеческого интеллекта. Каждый, кто тестирует ИИ, скорее всего предъявляет к нему свои критерии интеллекта, и если ответ на вопрос выше (в контексте той задачи) мне очевиден, то я ожидаю от "разумного ИИ" такого же ответа.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 264 ]  На страницу Пред.  1 ... 13, 14, 15, 16, 17, 18  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group