2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 14, 15, 16, 17, 18
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:14 
Аватара пользователя


17/10/22
271

(Оффтоп)

Yadryara
Повторюсь, что пробовал разные хостинги - в т.ч. те, где ссылка заканчивалась на расширение файла.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:20 
Аватара пользователя


29/04/13
7231
Богородский
MoonWatcher
Размер изображения точно не больше 800 пикселей в ширину?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:34 
Аватара пользователя


17/10/22
271
Yadryara
Пробовал и не больше. Но сейчас получилось - по ссылке, рекомендованной специально для форумов:

Изображение

Так что рекомендую использовать этот хостинг и копировать Превью с ссылкой для форумов (BBCode).

-- 17.02.2023, 13:52 --

Dicson в сообщении #1581975 писал(а):
Обобщение, индукция - это функция, которая, собственно, и характеризует разум, интеллект, способность познавать, порождать новое знание. От частного к общему, от смысла слов к смыслу фразы, от фактов к теории. Чем строже вы ограничиваете и направляете опыт ИИ, тем больше вы ограничиваете обобщение, то есть возможное богатство и новизну идей. Без этого не обойтись, но, с другой стороны, неизвестно, что конкретно привело человека к новой идее - в распределённой системе триггером может быть что угодно.

Так я и не предлагаю ограничивать - речь о последовательности обучения от более надежных источников к менее надежным. При правильном обучении ИИ будет способен различать мусор в Интернете и извлекать из него полезную информацию. Полезную в смысле непротиворечивости сначала дата-сетам а-ля препринты, потом дата-сетам а-ля авторитетные научные журналы, и наконец дата-сетам а-ля хорошие учебники, задачники и т.д.

Dicson в сообщении #1581975 писал(а):
Речь, снятые фильмы - это некоторый итог работы нашего интеллекта, а сам наш мир - он другой, это не тексты и не фильмы/изображения. Для ИИ наши знания - это его мир, а итог работы ИИ - ответы на наши вопросы. При этом наши знания не могут стать полностью адекватными нашему миру. То же касается и знаний ИИ, поэтому его ответы не могут стать полностью адекватными нашим знаниям. В итоге, мало того, что по отношению к реальной реальности неадекватность содержат наши знания, так ещё и ИИ в своих ответах добавляет к ним неадекватности "от себя". Вот это и значение "бесконечно ничтожного" жизненного опыта.

Я считаю, что могут. Ведь непосредственно мы знаем о мире только то, что знает тот дикарь (а точнее гораздо меньше). Условно 99% нашего знания о мире - книжная или вербальная информация. Еще конечно большой объем приходится на визуальную информацию, но, как я говорил, для ИИ это можно компенсировать просмотром новостей, документальных и художественных фильмов. Остальной 1% при всей своей огромной важности лично для нас для знания о мире, повторюсь, не нужен - во всяком случае я пока не вижу аргументов в пользу обратного. У дикаря вместо 1% может быть условно 50%, но чем более цивилизованным (в технологическом смысле) является общество, тем больше его члены информированы за счет накопленного чужого опыта, а не собственного.

Dicson в сообщении #1581975 писал(а):
Мозг управляет мышцами. Наше мышление, наши знания - это суть последовательности действий решения задач. Фантазии, логические построения, формулы, алгоритмы - это всё те же последовательности. Поэтому "мести улицы" - это такая же интеллектуальная работа, что и решать уравнения, только простая. При этом мозг - это распределённая система, поэтому строит последовательности так или иначе весь мозг, весь мозг подчинён этой общей работе.

Таким образом, в построении фраз в той или иной степени участвует весь мозг, то есть значение имеет весь наш опыт, а любое наше знание более или менее распределено сразу по всему мозгу. Но у ИИ другой опыт - он меньше, он другой, знания в его "мозге" распределены по-другому. Поэтому добившись в чём-то адекватности, мы всё равно получаем в целом неадекватную систему. Которая будет адекватно воспринимать наши тексты, только когда сама станет нами. А пока бесспорное преимущество только одно - скорость простой интеллектуальной работы.

Вообще, вероятно, что уже очень скоро даже в нынешнем виде ИИ станет общедоступным. Просто мы как-нибудь приспособимся к его неадекватности, будем фильтровать. Пока это только диалоги, а не самостоятельные действия, то, при должной привычке, это, вероятно, не так опасно. И не во всех задачах важна точность. Например, если тема знакомая, то может быть проще подправить ответ от ИИ, чем с нуля написать самому.

Я и не спорю, что мести улицы - интеллектуальная работа, но выше спрашивал о другом: Какие конкретно основания считать, что интеллектуальные навыки, благодаря которым человек умеет убирать улицы, будут востребованы в книжных науках? Какие основания утверждать, что значение имеет весь наш опыт? Интеллект - это инструмент решения различных задач. Современный ИИ возможно и не умеет мести улицы - но не потому, что там востребованы какие-то суперсложные интеллектуальные навыки. Повторюсь, что с этим справится условный автопилот - ИИ, которые распознает объекты в пространстве (ну и дополнительно к этому понимает физику). А еще никого не покалечит во время работы и недорого стоит. Со временем очевидно осилят и эту задачу - ничего принципиально сложного в ней нет. А вот насчет того, что большие языковые системы научатся извлекать из книжной информации любые знания - в этом у меня есть большие сомнения. Но если это произойдет, то отсутствие у ИИ навыков, благодаря которым люди умеют мести улицы - не проблема. Максимум - проблема временная, решаемая.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 17:25 
Аватара пользователя


17/10/22
271
worm2 в сообщении #1581989 писал(а):
Ну я остаюсь при своём мнении. Я не утверждаю, что бот в силу своего несовершенства не мог обнаружить скрытые закономерности, позволяющие правильно ответить на мой вопрос. Я беру на себя смелость утверждать, что таких закономерностей в "обычных", не адаптированных, текстах вообще нет (хотя это утверждение невозможно верифицировать и трудно фальсифицировать). В обучающую модель просто была явно заложена информация, позволяющая правильно отвечать на подобные вопросы, в иное я отказываюсь верить. Вероятно, там есть подробные описания форм букв, обильно снабжённые примерами, на какие предметы они похожи. Например, уверен на 99%, что вот этот текст: Наклоненная вниз голова не влияет на форму буквы "Т" при взгляде спереди в какой-то вариации (возможно, в нескольких) в обучающий корпус входит. Уже то, что бот сумел "развернуть" это описание в обратном направлении — серьёзное достижение, достойное восхищения (хотя это нам может показаться тривиальным, но там же вариантов тьма, комбинаторные взрывы на каждом шагу).
Другой вариант, позволяющий отвечать на такие вопросы — использование геометрических моделей (распознавание, синтез). Ещё более простой вариант — использование онтологических моделей, где всевозможные сведения об окружающем мире накапливаются не в текстовом, а в формализованном виде, позволяющем легко строить логические цепочки вывода. Никто не запрещал инженерам Google использовать, например, OpenCyc, и возможно, они так и поступили (хотя там столько ресурсов, что они могли бы и сами с нуля что-то такое создать). Возможно, OpenCyc уже содержит сведения о формах различных объектов, в т.ч. букв и человеческого тела. Лет 10 назад он, например, уже содержал сведения о том, что мужчины обычно не носят юбки; о том, что юбки — традиционная одежда мужчин-шотландцев; и умел из этого сделать вывод: "Если мужчина носит юбку, то он, вероятно, шотландец".

Не исключено - но тогда как насчет моего примера с решением математической задачи, например? Судя по неспособности чат-бота решать задачи, которые MIT+Codex или даже Wolfram|Alpha щелкает как орехи, к ChatGPT ничего не прикрутили - почти наверняка он решает такие задачи через обучение на статистических текстовых закономерностях. Что подтверждается, в частности, допускаемыми им ошибками (как здесь, например). Возможно с визуализацией букв нечто похожее - где-то как-то их неявное (а то и явное) описание фигурирует. Ну например, классический римский крест для распятия - это как раз буква T, его описание в обучающем дата-сете могло встречаться тысячи раз. С этим относительно просто - поэтому меня больше интригуют его математические способности, пусть пока и очень слабенькие. Вот здесь лично мне действительно трудно вообразить извлечение математических приемов из текста (пусть даже по математике). Возможно он обучился посредством сопоставления похожих задач с их решениями. Но тогда их должно быть очень много - что маловероятно. Тогда может он гораздо умнее, чем мы думаем - и поэтому способен извлекать из текста скрытые от нас закономерности?..

worm2 в сообщении #1581989 писал(а):
Я считаю, что это (использование других моделей, помимо текстовых) — единственно верное направление на пути к "настоящему сильному" ИИ, хотя думаю что конкретно в ChatGPT конкретно геометрических моделей ещё нет.

Это уже делают - например, когда к ChatGPT прикрутили Wolfram|Alpha, ответы чат-бота стали точнее. Но ИМХО это костыли. По меньшей мере решение любых книжных задач в рамках чисто статистической языковой модели - это невообразимо круто. Другой вопрос - не факт, что это возможно (на дата-сете, содержащем всю накопленную человечеством текстовую информацию).

Но есть и средний, между костылями и "честным" обучением, вариант - дообучение модели в рамках её тестирования. Я вчера пару часов бился над тем, чтобы вытянуть из ChatGPT правильное решение (кстати, эту же задачу его улучшенная версия в Bing решает сходу, но это явно результат "гугления"). Уверен, что миллионы людей по всему миру будут охотно и бесплатно (или даже сами заплатив за это деньги) этот (или подобный) чат-бот тестировать, оценивать, подсказывать правильные ответы и т.д. Тогда на выходе вполне вероятно появление идеальной китайской комнаты - в принципе тупой как пробка, но правильно отвечающей на 99.99% всех вопросов. Это тоже будет грандиозное достижение, и пока об этом можно только мечтать.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 14:53 
Аватара пользователя


17/10/22
271
Yadryara
Не услышал на 32-33-й минуте никаких примеров и упоминания GPT-3. Собственно его тогда еще не было в открытом доступе (ChatGPT на базе GPT-3.5)

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 15:49 
Аватара пользователя


29/04/13
7231
Богородский
MoonWatcher в сообщении #1582180 писал(а):
Не услышал на 32-33-й минуте никаких примеров

Прошу прощения, в конце 30-й минуты два примера.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 16:32 
Аватара пользователя


29/04/13
7231
Богородский
Здорово. Растёт. А упоминание GPT-3 всё же есть где-то в видео.

Кстати, небось Чат-бот всё же поумней Незнайки будет и не предложит селёдку в качестве рифмы к палке.

Если ему накидать примеры рифм, может и приблизится к авторским ответам.

Вообще лично я в отношении ИИ оптимист, а не скептик. Стало быть ИИ не только в ближайшие лет 5 пройдёт тест Тьюринга, но и сингулярность не так и далека...

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 16:38 
Аватара пользователя


17/10/22
271
Сейчас слушаю интервью целиком. Было приятно узнать, что Марков тоже считает тест Тьюринга какой угодно проверкой ИИ на интеллектуальность, а не просто разговором. Все современные и будущие бенчмарки для ИИ - это ТТ. И в этом смысле насчет ближайших пяти лет сильно сомневаюсь. Другой вопрос, что в ближайшие пять лет ИИ возможно сможет решать настолько широкий спектр интеллектуальных задач, что подловить его будет непросто. В смысле если и будет ошибаться, то как человек. Если это произойдет в ближайшие пять лет, то это станет очередной информационной революцией.

Yadryara в сообщении #1582198 писал(а):
Вообще лично я в отношении ИИ оптимист

ИИ вообще - да, скептиков я никогда не понимал. С удивлением вспоминаю своего препода по реляционной алгебре, утверждавшего, что создание ИИ невозможно. Было это в девяностые, но все равно странно. Сейчас интрига в другом - станут ли дорогой к сильному ИИ "статистические попугаи" в виде больших языковых моделей. Или они упрутся в потолок, ознаменовав тем самым очередную зиму ИИ - до следующего прорыва в концептуальном подходе к созданию ИИ.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение21.02.2023, 21:34 
Админ форума


02/02/19
2048
 i  Выделена тема «Тестирование возможностей ChatGPT»

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 264 ]  На страницу Пред.  1 ... 14, 15, 16, 17, 18

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: Dmitriy40


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group