2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 15, 16, 17, 18, 19, 20, 21 ... 24  След.
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:14 
Аватара пользователя


17/10/22
369

(Оффтоп)

Yadryara
Повторюсь, что пробовал разные хостинги - в т.ч. те, где ссылка заканчивалась на расширение файла.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:20 
Аватара пользователя


29/04/13
8307
Богородский
MoonWatcher
Размер изображения точно не больше 800 пикселей в ширину?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:34 
Аватара пользователя


17/10/22
369
Yadryara
Пробовал и не больше. Но сейчас получилось - по ссылке, рекомендованной специально для форумов:

Изображение

Так что рекомендую использовать этот хостинг и копировать Превью с ссылкой для форумов (BBCode).

-- 17.02.2023, 13:52 --

Dicson в сообщении #1581975 писал(а):
Обобщение, индукция - это функция, которая, собственно, и характеризует разум, интеллект, способность познавать, порождать новое знание. От частного к общему, от смысла слов к смыслу фразы, от фактов к теории. Чем строже вы ограничиваете и направляете опыт ИИ, тем больше вы ограничиваете обобщение, то есть возможное богатство и новизну идей. Без этого не обойтись, но, с другой стороны, неизвестно, что конкретно привело человека к новой идее - в распределённой системе триггером может быть что угодно.

Так я и не предлагаю ограничивать - речь о последовательности обучения от более надежных источников к менее надежным. При правильном обучении ИИ будет способен различать мусор в Интернете и извлекать из него полезную информацию. Полезную в смысле непротиворечивости сначала дата-сетам а-ля препринты, потом дата-сетам а-ля авторитетные научные журналы, и наконец дата-сетам а-ля хорошие учебники, задачники и т.д.

Dicson в сообщении #1581975 писал(а):
Речь, снятые фильмы - это некоторый итог работы нашего интеллекта, а сам наш мир - он другой, это не тексты и не фильмы/изображения. Для ИИ наши знания - это его мир, а итог работы ИИ - ответы на наши вопросы. При этом наши знания не могут стать полностью адекватными нашему миру. То же касается и знаний ИИ, поэтому его ответы не могут стать полностью адекватными нашим знаниям. В итоге, мало того, что по отношению к реальной реальности неадекватность содержат наши знания, так ещё и ИИ в своих ответах добавляет к ним неадекватности "от себя". Вот это и значение "бесконечно ничтожного" жизненного опыта.

Я считаю, что могут. Ведь непосредственно мы знаем о мире только то, что знает тот дикарь (а точнее гораздо меньше). Условно 99% нашего знания о мире - книжная или вербальная информация. Еще конечно большой объем приходится на визуальную информацию, но, как я говорил, для ИИ это можно компенсировать просмотром новостей, документальных и художественных фильмов. Остальной 1% при всей своей огромной важности лично для нас для знания о мире, повторюсь, не нужен - во всяком случае я пока не вижу аргументов в пользу обратного. У дикаря вместо 1% может быть условно 50%, но чем более цивилизованным (в технологическом смысле) является общество, тем больше его члены информированы за счет накопленного чужого опыта, а не собственного.

Dicson в сообщении #1581975 писал(а):
Мозг управляет мышцами. Наше мышление, наши знания - это суть последовательности действий решения задач. Фантазии, логические построения, формулы, алгоритмы - это всё те же последовательности. Поэтому "мести улицы" - это такая же интеллектуальная работа, что и решать уравнения, только простая. При этом мозг - это распределённая система, поэтому строит последовательности так или иначе весь мозг, весь мозг подчинён этой общей работе.

Таким образом, в построении фраз в той или иной степени участвует весь мозг, то есть значение имеет весь наш опыт, а любое наше знание более или менее распределено сразу по всему мозгу. Но у ИИ другой опыт - он меньше, он другой, знания в его "мозге" распределены по-другому. Поэтому добившись в чём-то адекватности, мы всё равно получаем в целом неадекватную систему. Которая будет адекватно воспринимать наши тексты, только когда сама станет нами. А пока бесспорное преимущество только одно - скорость простой интеллектуальной работы.

Вообще, вероятно, что уже очень скоро даже в нынешнем виде ИИ станет общедоступным. Просто мы как-нибудь приспособимся к его неадекватности, будем фильтровать. Пока это только диалоги, а не самостоятельные действия, то, при должной привычке, это, вероятно, не так опасно. И не во всех задачах важна точность. Например, если тема знакомая, то может быть проще подправить ответ от ИИ, чем с нуля написать самому.

Я и не спорю, что мести улицы - интеллектуальная работа, но выше спрашивал о другом: Какие конкретно основания считать, что интеллектуальные навыки, благодаря которым человек умеет убирать улицы, будут востребованы в книжных науках? Какие основания утверждать, что значение имеет весь наш опыт? Интеллект - это инструмент решения различных задач. Современный ИИ возможно и не умеет мести улицы - но не потому, что там востребованы какие-то суперсложные интеллектуальные навыки. Повторюсь, что с этим справится условный автопилот - ИИ, которые распознает объекты в пространстве (ну и дополнительно к этому понимает физику). А еще никого не покалечит во время работы и недорого стоит. Со временем очевидно осилят и эту задачу - ничего принципиально сложного в ней нет. А вот насчет того, что большие языковые системы научатся извлекать из книжной информации любые знания - в этом у меня есть большие сомнения. Но если это произойдет, то отсутствие у ИИ навыков, благодаря которым люди умеют мести улицы - не проблема. Максимум - проблема временная, решаемая.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 17:25 
Аватара пользователя


17/10/22
369
worm2 в сообщении #1581989 писал(а):
Ну я остаюсь при своём мнении. Я не утверждаю, что бот в силу своего несовершенства не мог обнаружить скрытые закономерности, позволяющие правильно ответить на мой вопрос. Я беру на себя смелость утверждать, что таких закономерностей в "обычных", не адаптированных, текстах вообще нет (хотя это утверждение невозможно верифицировать и трудно фальсифицировать). В обучающую модель просто была явно заложена информация, позволяющая правильно отвечать на подобные вопросы, в иное я отказываюсь верить. Вероятно, там есть подробные описания форм букв, обильно снабжённые примерами, на какие предметы они похожи. Например, уверен на 99%, что вот этот текст: Наклоненная вниз голова не влияет на форму буквы "Т" при взгляде спереди в какой-то вариации (возможно, в нескольких) в обучающий корпус входит. Уже то, что бот сумел "развернуть" это описание в обратном направлении — серьёзное достижение, достойное восхищения (хотя это нам может показаться тривиальным, но там же вариантов тьма, комбинаторные взрывы на каждом шагу).
Другой вариант, позволяющий отвечать на такие вопросы — использование геометрических моделей (распознавание, синтез). Ещё более простой вариант — использование онтологических моделей, где всевозможные сведения об окружающем мире накапливаются не в текстовом, а в формализованном виде, позволяющем легко строить логические цепочки вывода. Никто не запрещал инженерам Google использовать, например, OpenCyc, и возможно, они так и поступили (хотя там столько ресурсов, что они могли бы и сами с нуля что-то такое создать). Возможно, OpenCyc уже содержит сведения о формах различных объектов, в т.ч. букв и человеческого тела. Лет 10 назад он, например, уже содержал сведения о том, что мужчины обычно не носят юбки; о том, что юбки — традиционная одежда мужчин-шотландцев; и умел из этого сделать вывод: "Если мужчина носит юбку, то он, вероятно, шотландец".

Не исключено - но тогда как насчет моего примера с решением математической задачи, например? Судя по неспособности чат-бота решать задачи, которые MIT+Codex или даже Wolfram|Alpha щелкает как орехи, к ChatGPT ничего не прикрутили - почти наверняка он решает такие задачи через обучение на статистических текстовых закономерностях. Что подтверждается, в частности, допускаемыми им ошибками (как здесь, например). Возможно с визуализацией букв нечто похожее - где-то как-то их неявное (а то и явное) описание фигурирует. Ну например, классический римский крест для распятия - это как раз буква T, его описание в обучающем дата-сете могло встречаться тысячи раз. С этим относительно просто - поэтому меня больше интригуют его математические способности, пусть пока и очень слабенькие. Вот здесь лично мне действительно трудно вообразить извлечение математических приемов из текста (пусть даже по математике). Возможно он обучился посредством сопоставления похожих задач с их решениями. Но тогда их должно быть очень много - что маловероятно. Тогда может он гораздо умнее, чем мы думаем - и поэтому способен извлекать из текста скрытые от нас закономерности?..

worm2 в сообщении #1581989 писал(а):
Я считаю, что это (использование других моделей, помимо текстовых) — единственно верное направление на пути к "настоящему сильному" ИИ, хотя думаю что конкретно в ChatGPT конкретно геометрических моделей ещё нет.

Это уже делают - например, когда к ChatGPT прикрутили Wolfram|Alpha, ответы чат-бота стали точнее. Но ИМХО это костыли. По меньшей мере решение любых книжных задач в рамках чисто статистической языковой модели - это невообразимо круто. Другой вопрос - не факт, что это возможно (на дата-сете, содержащем всю накопленную человечеством текстовую информацию).

Но есть и средний, между костылями и "честным" обучением, вариант - дообучение модели в рамках её тестирования. Я вчера пару часов бился над тем, чтобы вытянуть из ChatGPT правильное решение (кстати, эту же задачу его улучшенная версия в Bing решает сходу, но это явно результат "гугления"). Уверен, что миллионы людей по всему миру будут охотно и бесплатно (или даже сами заплатив за это деньги) этот (или подобный) чат-бот тестировать, оценивать, подсказывать правильные ответы и т.д. Тогда на выходе вполне вероятно появление идеальной китайской комнаты - в принципе тупой как пробка, но правильно отвечающей на 99.99% всех вопросов. Это тоже будет грандиозное достижение, и пока об этом можно только мечтать.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 14:53 
Аватара пользователя


17/10/22
369
Yadryara
Не услышал на 32-33-й минуте никаких примеров и упоминания GPT-3. Собственно его тогда еще не было в открытом доступе (ChatGPT на базе GPT-3.5)

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 15:49 
Аватара пользователя


29/04/13
8307
Богородский
MoonWatcher в сообщении #1582180 писал(а):
Не услышал на 32-33-й минуте никаких примеров

Прошу прощения, в конце 30-й минуты два примера.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 16:32 
Аватара пользователя


29/04/13
8307
Богородский
Здорово. Растёт. А упоминание GPT-3 всё же есть где-то в видео.

Кстати, небось Чат-бот всё же поумней Незнайки будет и не предложит селёдку в качестве рифмы к палке.

Если ему накидать примеры рифм, может и приблизится к авторским ответам.

Вообще лично я в отношении ИИ оптимист, а не скептик. Стало быть ИИ не только в ближайшие лет 5 пройдёт тест Тьюринга, но и сингулярность не так и далека...

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 16:38 
Аватара пользователя


17/10/22
369
Сейчас слушаю интервью целиком. Было приятно узнать, что Марков тоже считает тест Тьюринга какой угодно проверкой ИИ на интеллектуальность, а не просто разговором. Все современные и будущие бенчмарки для ИИ - это ТТ. И в этом смысле насчет ближайших пяти лет сильно сомневаюсь. Другой вопрос, что в ближайшие пять лет ИИ возможно сможет решать настолько широкий спектр интеллектуальных задач, что подловить его будет непросто. В смысле если и будет ошибаться, то как человек. Если это произойдет в ближайшие пять лет, то это станет очередной информационной революцией.

Yadryara в сообщении #1582198 писал(а):
Вообще лично я в отношении ИИ оптимист

ИИ вообще - да, скептиков я никогда не понимал. С удивлением вспоминаю своего препода по реляционной алгебре, утверждавшего, что создание ИИ невозможно. Было это в девяностые, но все равно странно. Сейчас интрига в другом - станут ли дорогой к сильному ИИ "статистические попугаи" в виде больших языковых моделей. Или они упрутся в потолок, ознаменовав тем самым очередную зиму ИИ - до следующего прорыва в концептуальном подходе к созданию ИИ.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение21.02.2023, 21:34 
Админ форума


02/02/19
2627
 i  Выделена тема «Тестирование возможностей ChatGPT»

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение03.06.2024, 21:40 


05/12/14
273
MoonWatcher в сообщении #1582016 писал(а):
Условно 99% нашего знания о мире - книжная или вербальная информация. Еще конечно большой объем приходится на визуальную информацию, но, как я говорил, для ИИ это можно компенсировать просмотром новостей, документальных и художественных фильмов. Остальной 1% при всей своей огромной важности лично для нас для знания о мире, повторюсь, не нужен - во всяком случае я пока не вижу аргументов в пользу обратного. У дикаря вместо 1% может быть условно 50%, но чем более цивилизованным (в технологическом смысле) является общество, тем больше его члены информированы за счет накопленного чужого опыта, а не собственного.

Мир чат-ботов — тексты, а писали их мы, поэтому, чтобы их правильно понимать, нужно быть человеком.

Задача мозга - управление мышцами, то есть построение движений, формирование путей достижения частных целей в контексте общего стремления к самосохранению. Речь, письмо в этом процессе — это интеллектуальный уровень движений, надстройка над движениями более общего характера. В основании построения движений находится тонус мышц, затем уровень объёмных мышечных синергий, уровень движений пространственного поля, предметные действия — и наконец уровень интеллектуальных движений, за которые более всего отвечает кора. Если сказать то же самое не в терминах построения движения, а в терминах распознавания условий (в рекуррентных сетях это один и тот же процесс), то слова, фразы — это высокоуровневая абстракция, частные признаки условий, то есть в основании слов у нас находится массив более низкоуровневого опыта (воспринимаемый нами психически, как весь остальной контекст ощущений и эмоций), через который слова связаны с сигналами рецепторов и, таким образом, через который они приобретают смысл по отношению к условиям.

Поэтому каждый человек, может быть, знает меньше текстов, чем чат-бот, но зато смысл тех, которые знает, понимает точнее. В результате в каждой области знания у нас есть свои специалисты, которые в этой области разбираются лучше любого чат-бота, а чат-бот знает много текстов, но в той или иной степени неадекватно их оригинальному смыслу и потому непредсказуемо путается даже в очевидных для нас вопросах.

И принципиально изменить здесь, по-видимому, ничего нельзя, так как никакое количество текстов в плане их адекватного понимания не заменит тот массив опыта, абстракцией от которого они являются. Следовательно, можно только приближать ИИ к человеку, то есть к богатству доступных человеку способов восприятия мира и богатству его поведенческих возможностей, чтобы он понимал сказанное нами, как мы сами.

Но здесь есть принципиальная проблема. Тексты, то есть точное, конкретное знание, — это отличный контент и для обучения, и для проверки знаний. Но поведению более общего характера — к примеру, вменяемым диалогам в службе поддержки банка или уборке квартиры — уже так просто не обучишь, результаты так просто не проверишь, а опасность от реальной деятельности или тем более от поведенческой неадекватности несравнимо выше, чем от галлюцинаций в ни к чему не обязывающих беседах в чатах (хотя даже и такие беседы боятся на самотёк пускать).

При этом человек не только умеет делать выводы, обобщая различные тексты, изображения или видео, но и так целенаправленно организует себя, природу и социум, чтобы эти тексты, изображения и видео в конечном итоге смогли появиться. Однако обучить стремлениям или проверить правильность их направления на сколько-нибудь длительных промежутках времени, по сути, уже вообще невозможно. В результате по мере приближения сложности ИИ к сложности поведения человека, как своего создателя/учителя, время каждого нового этапа усложнения будет всё быстрее стремиться к бесконечности.

Сложность нас самих — это принципиальный предел сложности любого создаваемого нами объекта или знания, к которому можно бесконечно приближаться, но на практике всегда оставаясь далеко от него. В итоге ИИ всегда будет не более чем помощником, способным выполнять простую интеллектуальную работу.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение04.06.2024, 12:25 
Аватара пользователя


17/10/22
369
Dicson
У вас несколько спорных утверждений. Пойдем в порядке возрастания их сложности:

1) По поему опыту даже нынешние чат-боты (которые, если верить OpenAI, через год нам покажутся смехотворно глупыми) умеют вести вполне осмысленные диалоги. Поэтому я почти не сомневаюсь, что в роли оператора службы поддержки LLM со временем сработает не хуже людей. Которые, опять же по моему опыту, работают по методичке и часто выключают внимание. Мой типичный диалог с сотрудником банка:
- Я понял, спасибо, у меня больше нет вопросов.
- У вас еще остались вопросы?
Но независимо от того как могут тупить люди, в контексте нынешних достижений я не вижу причин считать работу оператора кол-центра слишком сложной для LLM. Особенно с поправкой на голосовой интерфейс с эмоциональных интеллектом, продемонстрированный OpenAI на презентации GPT-4o. Не без косяков, но ведь это только начало...

2) По поводу того, что "человек, может быть, знает меньше текстов, чем чат-бот, но зато смысл тех, которые знает, понимает точнее. В результате в каждой области знания у нас есть свои специалисты, которые в этой области разбираются лучше любого чат-бота". Уже сейчас LLM в некоторых областях демонстрируют компетенцию лучше среднего специалиста в этой области - например, в медицинской диагностике и рекомендациях по простудным заболеваниям. Поэтому определенно не "в каждой области знания у нас есть свои специалисты, которые в этой области разбираются лучше любого чат-бота". Но сможет ли ИИ выйти на уровень человеческой компетенции в любой области знаний? Вопрос, который упирается в очень интересную затронутую вами тему - понимание смысла. Вы пишите:
Dicson в сообщении #1641269 писал(а):
в основании слов у нас находится массив более низкоуровневого опыта (воспринимаемый нами психически, как весь остальной контекст ощущений и эмоций), через который слова связаны с сигналами рецепторов и, таким образом, через который они приобретают смысл по отношению к условиям.

Это всё так, но в моем сугубо дилетантском представлении непосредственно понимание у нас выражается, главным образом, следующим образом:
1) мысленное представление увиденного/услышанного/прочитанного (визуальное, слуховое, тактильное, эмоциональное и т.д.), а также
2) наложение увиденного/услышанного/прочитанного на усвоенные и закрепленные нашим личным опытом закономерности.

Когда вы говорите "Гло́кая ку́здра ште́ко будлану́ла бо́кра и курдя́чит бокрёнка", то я ничего не понимаю. Но если вы скажете "Большая собака больно укусила кота и лижет котенка", то я смогу мысленно представить эту сцену и связать её со своим ощущениями большого и маленького, кусания и лизания, и т.д. Но ничего не мешает реализовать хотя бы часть этого понимания, на визуальном уровне, и в ИИ - вы же знаете про мультимодальные модели, способны анализировать визуальную информацию. Вы можете сказать, что все равно будет недоставать физических и эмоциональных ощущений - но так ли они важны?

Во-первых, сами люди могут быть лишены этих ощущений - слепоглухонемой от рождения человек все равно разумен, как и человек, лишенный эмпатии или чувства боли. И наоборот: физически полноценные маугли, выросшие вне социума, ведут себя как животные - людьми их делает прежде всего язык.

Во-вторых, мы можем постигать какие-то эмоции и чувства через закономерности, даже не имея личного опыта. Множество людей никогда не испытывало любви - но понимать что это такое им помогают не порхающие в животе бабочки, а извлеченные из чужого (например, литературного) опыта закономерности: кто, когда и при каких обстоятельствах влюбляется, как себя при этом ведет, как реагирует на разлуку и т.д. И поэтому не знающий любви (тюрьмы, войны), но начитанный человек знает про неё намного больше человека, который испытал это только на личном опыте. Да, влюбленный/воевавший/сидевший в тюрьме человек условных бабочек или тараканов в животе ощущал по-настоящему - зато начитанный знает как себя при этом ведет среднестатистическая жертва этих обстоятельств. Он вряд ли сможет применить эти знания (война или тюрьма) на практике (поскольку у него не выработаны соответствующие реакции, отсутствует соответствующая закалка) - но он знает всё, что можно передать словами. Особенно с точки зрения понятия "смысл" - богатство осмысления войны или тюрьмы определяется текстом, а не ощущением условных тараканов в животе.

В-третьих, обязательно ли сводить требуемые для осмысления закономерности к закономерностям именно реальных процессов? Может быть осмысление возможно через статистические текстовые закономерности обучающего дата-сета, при помощи которых LLM предсказывает каждое следующее слово в диалоге с пользователем? Я задавал этот вопрос в соседней теме. Несколько лет назад над таким способом осмысления можно было посмеяться - вот как обученная на Википедии языковая модель 2011 года продолжила фразу "смысл жизни" (ниже - автоперевод с английского):
Цитата:
Смысл жизни — это традиция древнего человеческого воспроизводства: это менее благоприятно для хорошего мальчика, когда его нужно убрать. В шоу единогласно всплыла договоренность. Дикие пастбища с постоянными уличными лесами были включены к 15 веку до н.э. В 1996 году первичный рапфорд подвергся усилию, что резервирование условий, записанных в еврейские города, спящих для включения Евразии, которая активирует население. Мария Националь, Келли, Зедлат-Дукасто, Флорендон, Пту считает. Чтобы адаптироваться в большинстве частей Северной Америки, динамичная фея Дэн, пожалуйста, верит, что свобода слова во многом связана с

Сравните с тем, как нынешние LLM ведут диалоги, решают задачи, программируют, объясняют смысл поговорок или анекдотов и т.д. Нынешний прогресс от модели, выдавшей в 2011 эту абракадабру про смысл жизни, меня удивляет даже больше, чем удивил бы прогресс от нынешних LLM к AGI.

Вопрос о том, является ли пониманием задействование статистических текстовых закономерностей, я задаю безотносительно того факта, что в рамках мультимодальных систем эти закономерности дополняются закономерностями нашего физического мира, почерпнутыми из YouTube и прочих носителей видео-информации. С учетом последнего, ваше утверждение, что "ИИ всегда будет не более чем помощником, способным выполнять простую интеллектуальную работу" мне представляется особенно спорным. В том числе аргументация:
Dicson в сообщении #1641269 писал(а):
Сложность нас самих — это принципиальный предел сложности любого создаваемого нами объекта или знания, к которому можно бесконечно приближаться, но на практике всегда оставаясь далеко от него.

По этой логике Ньютон не мог быть умнее своих преподавателей физики в Кембридже. Да, он "всего лишь карлик на плечах гигантов" - но этими гигантами он называл то, что сейчас выступает в качестве обучающего текстового дата-сета. Тогда что мешает большой языковой модели, которая проанализировала всю доступную текстовую информацию (в том числе десятки миллионов научных публикаций), подобно Ньютону выйти за пределы сложности своих учителей?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение04.06.2024, 14:59 


10/03/16
4444
Aeroport
MoonWatcher в сообщении #1641324 писал(а):
Поэтому я почти не сомневаюсь, что в роли оператора службы поддержки LLM со временем сработает не хуже людей.


Я почти не сомневаюсь, что LLM никогда не подключат к звонку VIP-клиента, желающего проконсультироваться по вопросам миллиардных(в рублях) инвестиций. Что касается плебса, тут Вы правы на 500%: недавно мне звонили из МТС. Мужик с потрясающе поставленным голосом, отвечал впопад. В некоторый момент у меня возникли подозрения, и я начал проводить самопальный тест Тьюринга, тут-то всё и обнаружилось. Я в афиге позвонил в МТС, и живой мужыг (тест Тьюринга я и тут на всякий случай провёл) сказал, что дескать да, у нас коиентам звонят чат-боты.

MoonWatcher в сообщении #1641324 писал(а):
Во-вторых, мы можем постигать какие-то эмоции и чувства через закономерности, даже не имея личного опыта. Множество людей никогда не испытывало любви - но понимать что это такое им помогают не порхающие в животе бабочки, а извлеченные из чужого (например, литературного) опыта закономерности: кто, когда и при каких обстоятельствах влюбляется, как себя при этом ведет, как реагирует на разлуку и т.д. И поэтому не знающий любви (тюрьмы, войны), но начитанный человек знает про неё намного больше человека, который испытал это только на личном опыте.


MoonWatcher в сообщении #1641324 писал(а):
Да, влюбленный/воевавший/сидевший в тюрьме человек условных бабочек или тараканов в животе ощущал по-настоящему - зато начитанный знает как себя при этом ведет среднестатистическая жертва этих обстоятельств.


Мой опыт сравнение моего опыта с прочитанным говорит ровно обратное. Мой прямой опыт это:

- влюблённость (взаимная и невзаимная)
- серьезная драка, в которой меня могли убить и в общем то, почти убили.
- ожидание смерти про утоплении (не умея плавать, я попал на глубину метров шесть, видел, как удаляется поверхность воды и как вокруг меня становится все темнее).

Мой косвенный опыт это:

- очень подробное общение с двумя мужиками, воевавшими в Ч.
- очень подробное общение одним мужиком, которого серьезно подстрелили в 90-х (мысли во время перестрелки, ощущения при попадании пули, ощущения через 10мин, 1час, один день после попадания и т.д.).

Так вот, в реальности всё прям ну вообще не так, как пишут в книгах (а книг про войну, про любовь и про бандитские разборки я прочитал о-ё-ёй сколько (про разборки чуть меньше)). Писателей понять можно - им нужно написать так, чтоб покупали было занимательно, а в жизни всё как-то намного прозаичнее. То есть написать вторую половину книги Льва Толстого LLM вполне может, если показать ей первую. Так же она вполне может сгенерировать какую-нибудь (впоследствии восторженно принятую училками литературы) апханиду по поводу того, что имел в виду Валентин Катаев, назвав свою книгу "2 капитана", а не "$3 \pm i \sqrt{2}$ капитанов", если скормить ей соотв. методичку. Перенять опыт человека на основе текстов она не сможет. С другой стороны, а что мешает левел-апнуться и подключать к обучению LLM непосредственно нейронные сигналы?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение04.06.2024, 15:13 
Заслуженный участник
Аватара пользователя


20/08/14
8607
ozheredov в сообщении #1641347 писал(а):
сказал, что дескать да, у нас клиентам звонят чат-боты
Боты в обзвонах клиентов используются повсеместно и довольно давно. Но это не генеративные сети типа GPT. Они не генерируют фразы, а выбирают из проверенного человеком списка. Чтобы компания не влипла в юридическую ответственность за совет погреть айфон в микроволновке.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение04.06.2024, 15:19 


10/03/16
4444
Aeroport
Anton_Peplov в сообщении #1641352 писал(а):
Они не генерируют фразы, а выбирают из проверенного человеком списка.

А, вообще похоже.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение04.06.2024, 15:48 
Аватара пользователя


17/10/22
369
ozheredov
Описанный вами опыт - это какие-то эмоциональные переживания, причем глубоко индивидуальные. Говоря о войне или тюрьме я конечно же имел в виду не художественную литературу (хотя по способности донести эмоциональные переживания она даст фору многим воспоминаниям участников). Ваши переживания в любви, драке или ожидании смерти носят единичный характер - а представьте, если в какой-нибудь книжке собраны тысячи таких реальных переживаний. Причем разных - я по опыту общения с военными знаю, что реакция на бой бывает разной: у одних - паника, у других - оцепенение. А с парашютом прыгали - страшно было? Мне - нет, хотя высоты боюсь. Очень всё индивидуально, и пока только тексты позволяют описать всё это многообразие чужого личного опыта. И в этом смысле человек, который прочитал о войне или тюрьме десятки реальных воспоминаний, знает о ней больше отдельно взятого человека. Который вдобавок транслирует другим свою "ошибку выжившего", выдавая её за единственно правильные навыки. Да, целиком до читателя всех нюансов эмоциональных переживаний и физических ощущений вы не донесете - но есть ли в этом необходимость? Уверен, что если вы поставите перед кем-то интеллектуальную задачу написать книгу про войну, то начитавших реальных воспоминаний, он с этим справится лучше участника этой войны. Простая арифметика: участник напишет одну книгу, а начитанный прочитал таких книг, условно, сотни. И соответственно он лучше знает какая бывает реакция на стресс в боевой обстановке, как люди коротают свободное время, как между собой ладят и т.д.

Ну а если вам нужен не военный писатель, а солдат, то здесь конечно текстов будет маловато. Потребуется обучение робота на видео, виртуальных симуляторах, потом реальных тактических тренировках и учениях. На данный момент это представляется вполне реальной перспективой.

ozheredov в сообщении #1641347 писал(а):
Я почти не сомневаюсь, что LLM никогда не подключат к звонку VIP-клиента, желающего проконсультироваться по вопросам миллиардных(в рублях) инвестиций.

Я как раз пытался вспомнить где еще ИИ превзошел специалистов, помимо диагностики и лечения простудных заболеваний, и теперь вспомнил:
Цитата:
Исследование показало, что GPT-4 компании OpenAI может выполнять анализ финансовой отчетности и в некоторых случаях предсказывать будущие результаты деятельности компании лучше, чем человек-аналитик.
(отсюда)

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 349 ]  На страницу Пред.  1 ... 15, 16, 17, 18, 19, 20, 21 ... 24  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: YandexBot [bot]


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group