2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 14, 15, 16, 17, 18
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:14 
Аватара пользователя


17/10/22
271

(Оффтоп)

Yadryara
Повторюсь, что пробовал разные хостинги - в т.ч. те, где ссылка заканчивалась на расширение файла.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:20 
Аватара пользователя


29/04/13
7227
Богородский
MoonWatcher
Размер изображения точно не больше 800 пикселей в ширину?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 13:34 
Аватара пользователя


17/10/22
271
Yadryara
Пробовал и не больше. Но сейчас получилось - по ссылке, рекомендованной специально для форумов:

Изображение

Так что рекомендую использовать этот хостинг и копировать Превью с ссылкой для форумов (BBCode).

-- 17.02.2023, 13:52 --

Dicson в сообщении #1581975 писал(а):
Обобщение, индукция - это функция, которая, собственно, и характеризует разум, интеллект, способность познавать, порождать новое знание. От частного к общему, от смысла слов к смыслу фразы, от фактов к теории. Чем строже вы ограничиваете и направляете опыт ИИ, тем больше вы ограничиваете обобщение, то есть возможное богатство и новизну идей. Без этого не обойтись, но, с другой стороны, неизвестно, что конкретно привело человека к новой идее - в распределённой системе триггером может быть что угодно.

Так я и не предлагаю ограничивать - речь о последовательности обучения от более надежных источников к менее надежным. При правильном обучении ИИ будет способен различать мусор в Интернете и извлекать из него полезную информацию. Полезную в смысле непротиворечивости сначала дата-сетам а-ля препринты, потом дата-сетам а-ля авторитетные научные журналы, и наконец дата-сетам а-ля хорошие учебники, задачники и т.д.

Dicson в сообщении #1581975 писал(а):
Речь, снятые фильмы - это некоторый итог работы нашего интеллекта, а сам наш мир - он другой, это не тексты и не фильмы/изображения. Для ИИ наши знания - это его мир, а итог работы ИИ - ответы на наши вопросы. При этом наши знания не могут стать полностью адекватными нашему миру. То же касается и знаний ИИ, поэтому его ответы не могут стать полностью адекватными нашим знаниям. В итоге, мало того, что по отношению к реальной реальности неадекватность содержат наши знания, так ещё и ИИ в своих ответах добавляет к ним неадекватности "от себя". Вот это и значение "бесконечно ничтожного" жизненного опыта.

Я считаю, что могут. Ведь непосредственно мы знаем о мире только то, что знает тот дикарь (а точнее гораздо меньше). Условно 99% нашего знания о мире - книжная или вербальная информация. Еще конечно большой объем приходится на визуальную информацию, но, как я говорил, для ИИ это можно компенсировать просмотром новостей, документальных и художественных фильмов. Остальной 1% при всей своей огромной важности лично для нас для знания о мире, повторюсь, не нужен - во всяком случае я пока не вижу аргументов в пользу обратного. У дикаря вместо 1% может быть условно 50%, но чем более цивилизованным (в технологическом смысле) является общество, тем больше его члены информированы за счет накопленного чужого опыта, а не собственного.

Dicson в сообщении #1581975 писал(а):
Мозг управляет мышцами. Наше мышление, наши знания - это суть последовательности действий решения задач. Фантазии, логические построения, формулы, алгоритмы - это всё те же последовательности. Поэтому "мести улицы" - это такая же интеллектуальная работа, что и решать уравнения, только простая. При этом мозг - это распределённая система, поэтому строит последовательности так или иначе весь мозг, весь мозг подчинён этой общей работе.

Таким образом, в построении фраз в той или иной степени участвует весь мозг, то есть значение имеет весь наш опыт, а любое наше знание более или менее распределено сразу по всему мозгу. Но у ИИ другой опыт - он меньше, он другой, знания в его "мозге" распределены по-другому. Поэтому добившись в чём-то адекватности, мы всё равно получаем в целом неадекватную систему. Которая будет адекватно воспринимать наши тексты, только когда сама станет нами. А пока бесспорное преимущество только одно - скорость простой интеллектуальной работы.

Вообще, вероятно, что уже очень скоро даже в нынешнем виде ИИ станет общедоступным. Просто мы как-нибудь приспособимся к его неадекватности, будем фильтровать. Пока это только диалоги, а не самостоятельные действия, то, при должной привычке, это, вероятно, не так опасно. И не во всех задачах важна точность. Например, если тема знакомая, то может быть проще подправить ответ от ИИ, чем с нуля написать самому.

Я и не спорю, что мести улицы - интеллектуальная работа, но выше спрашивал о другом: Какие конкретно основания считать, что интеллектуальные навыки, благодаря которым человек умеет убирать улицы, будут востребованы в книжных науках? Какие основания утверждать, что значение имеет весь наш опыт? Интеллект - это инструмент решения различных задач. Современный ИИ возможно и не умеет мести улицы - но не потому, что там востребованы какие-то суперсложные интеллектуальные навыки. Повторюсь, что с этим справится условный автопилот - ИИ, которые распознает объекты в пространстве (ну и дополнительно к этому понимает физику). А еще никого не покалечит во время работы и недорого стоит. Со временем очевидно осилят и эту задачу - ничего принципиально сложного в ней нет. А вот насчет того, что большие языковые системы научатся извлекать из книжной информации любые знания - в этом у меня есть большие сомнения. Но если это произойдет, то отсутствие у ИИ навыков, благодаря которым люди умеют мести улицы - не проблема. Максимум - проблема временная, решаемая.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение17.02.2023, 17:25 
Аватара пользователя


17/10/22
271
worm2 в сообщении #1581989 писал(а):
Ну я остаюсь при своём мнении. Я не утверждаю, что бот в силу своего несовершенства не мог обнаружить скрытые закономерности, позволяющие правильно ответить на мой вопрос. Я беру на себя смелость утверждать, что таких закономерностей в "обычных", не адаптированных, текстах вообще нет (хотя это утверждение невозможно верифицировать и трудно фальсифицировать). В обучающую модель просто была явно заложена информация, позволяющая правильно отвечать на подобные вопросы, в иное я отказываюсь верить. Вероятно, там есть подробные описания форм букв, обильно снабжённые примерами, на какие предметы они похожи. Например, уверен на 99%, что вот этот текст: Наклоненная вниз голова не влияет на форму буквы "Т" при взгляде спереди в какой-то вариации (возможно, в нескольких) в обучающий корпус входит. Уже то, что бот сумел "развернуть" это описание в обратном направлении — серьёзное достижение, достойное восхищения (хотя это нам может показаться тривиальным, но там же вариантов тьма, комбинаторные взрывы на каждом шагу).
Другой вариант, позволяющий отвечать на такие вопросы — использование геометрических моделей (распознавание, синтез). Ещё более простой вариант — использование онтологических моделей, где всевозможные сведения об окружающем мире накапливаются не в текстовом, а в формализованном виде, позволяющем легко строить логические цепочки вывода. Никто не запрещал инженерам Google использовать, например, OpenCyc, и возможно, они так и поступили (хотя там столько ресурсов, что они могли бы и сами с нуля что-то такое создать). Возможно, OpenCyc уже содержит сведения о формах различных объектов, в т.ч. букв и человеческого тела. Лет 10 назад он, например, уже содержал сведения о том, что мужчины обычно не носят юбки; о том, что юбки — традиционная одежда мужчин-шотландцев; и умел из этого сделать вывод: "Если мужчина носит юбку, то он, вероятно, шотландец".

Не исключено - но тогда как насчет моего примера с решением математической задачи, например? Судя по неспособности чат-бота решать задачи, которые MIT+Codex или даже Wolfram|Alpha щелкает как орехи, к ChatGPT ничего не прикрутили - почти наверняка он решает такие задачи через обучение на статистических текстовых закономерностях. Что подтверждается, в частности, допускаемыми им ошибками (как здесь, например). Возможно с визуализацией букв нечто похожее - где-то как-то их неявное (а то и явное) описание фигурирует. Ну например, классический римский крест для распятия - это как раз буква T, его описание в обучающем дата-сете могло встречаться тысячи раз. С этим относительно просто - поэтому меня больше интригуют его математические способности, пусть пока и очень слабенькие. Вот здесь лично мне действительно трудно вообразить извлечение математических приемов из текста (пусть даже по математике). Возможно он обучился посредством сопоставления похожих задач с их решениями. Но тогда их должно быть очень много - что маловероятно. Тогда может он гораздо умнее, чем мы думаем - и поэтому способен извлекать из текста скрытые от нас закономерности?..

worm2 в сообщении #1581989 писал(а):
Я считаю, что это (использование других моделей, помимо текстовых) — единственно верное направление на пути к "настоящему сильному" ИИ, хотя думаю что конкретно в ChatGPT конкретно геометрических моделей ещё нет.

Это уже делают - например, когда к ChatGPT прикрутили Wolfram|Alpha, ответы чат-бота стали точнее. Но ИМХО это костыли. По меньшей мере решение любых книжных задач в рамках чисто статистической языковой модели - это невообразимо круто. Другой вопрос - не факт, что это возможно (на дата-сете, содержащем всю накопленную человечеством текстовую информацию).

Но есть и средний, между костылями и "честным" обучением, вариант - дообучение модели в рамках её тестирования. Я вчера пару часов бился над тем, чтобы вытянуть из ChatGPT правильное решение (кстати, эту же задачу его улучшенная версия в Bing решает сходу, но это явно результат "гугления"). Уверен, что миллионы людей по всему миру будут охотно и бесплатно (или даже сами заплатив за это деньги) этот (или подобный) чат-бот тестировать, оценивать, подсказывать правильные ответы и т.д. Тогда на выходе вполне вероятно появление идеальной китайской комнаты - в принципе тупой как пробка, но правильно отвечающей на 99.99% всех вопросов. Это тоже будет грандиозное достижение, и пока об этом можно только мечтать.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 14:53 
Аватара пользователя


17/10/22
271
Yadryara
Не услышал на 32-33-й минуте никаких примеров и упоминания GPT-3. Собственно его тогда еще не было в открытом доступе (ChatGPT на базе GPT-3.5)

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 15:49 
Аватара пользователя


29/04/13
7227
Богородский
MoonWatcher в сообщении #1582180 писал(а):
Не услышал на 32-33-й минуте никаких примеров

Прошу прощения, в конце 30-й минуты два примера.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 16:32 
Аватара пользователя


29/04/13
7227
Богородский
Здорово. Растёт. А упоминание GPT-3 всё же есть где-то в видео.

Кстати, небось Чат-бот всё же поумней Незнайки будет и не предложит селёдку в качестве рифмы к палке.

Если ему накидать примеры рифм, может и приблизится к авторским ответам.

Вообще лично я в отношении ИИ оптимист, а не скептик. Стало быть ИИ не только в ближайшие лет 5 пройдёт тест Тьюринга, но и сингулярность не так и далека...

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение18.02.2023, 16:38 
Аватара пользователя


17/10/22
271
Сейчас слушаю интервью целиком. Было приятно узнать, что Марков тоже считает тест Тьюринга какой угодно проверкой ИИ на интеллектуальность, а не просто разговором. Все современные и будущие бенчмарки для ИИ - это ТТ. И в этом смысле насчет ближайших пяти лет сильно сомневаюсь. Другой вопрос, что в ближайшие пять лет ИИ возможно сможет решать настолько широкий спектр интеллектуальных задач, что подловить его будет непросто. В смысле если и будет ошибаться, то как человек. Если это произойдет в ближайшие пять лет, то это станет очередной информационной революцией.

Yadryara в сообщении #1582198 писал(а):
Вообще лично я в отношении ИИ оптимист

ИИ вообще - да, скептиков я никогда не понимал. С удивлением вспоминаю своего препода по реляционной алгебре, утверждавшего, что создание ИИ невозможно. Было это в девяностые, но все равно странно. Сейчас интрига в другом - станут ли дорогой к сильному ИИ "статистические попугаи" в виде больших языковых моделей. Или они упрутся в потолок, ознаменовав тем самым очередную зиму ИИ - до следующего прорыва в концептуальном подходе к созданию ИИ.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение21.02.2023, 21:34 
Админ форума


02/02/19
2035
 i  Выделена тема «Тестирование возможностей ChatGPT»

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 264 ]  На страницу Пред.  1 ... 14, 15, 16, 17, 18

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group