2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему
 
 О возможности создания сверхчеловеческого ИИ
Сообщение16.05.2025, 20:11 


12/07/15
3593
г. Чехов
 i  Ende
Выделено из темы «Прогнозы экспертов относительно ИИ»



Никто из философов не задавался таким вопросом: "Почему на входе интеллекта мало информации, а на выходе много?". Это противоречит закону сохранения информации...
Науке ответ известен (я, по крайней мере, отражаю это), но в научно-популярном варианте разъяснений нет. В научно-популярном варианте есть только дебильное "AGI/ASI" и "трансцендентное" превосходство человека. Антропоцентризм прям валит из всех труб. По факту нужно научиться признавать себя неспособным во многих областях деятельности. Именно собирательный образ человека мешает адекватному восприятию реальности. Извините, но все знания физики и математики изобрел не один [собирательный] человек, а целая цивилизация на протяжении веков. От человека нельзя добиться правильно выключатель в ванной подключить, а почему-то искусственный интеллект за пол-доллара должен написать научный трактат.

-- 16.05.2025, 20:33 --

Поскольку тема называется "Прогнозы экспертов относительно ИИ", позвольте мне выразиться в качестве эксперта, дабы не попасть в оффтоп. Как вы знаете, я там немного ML-исследования провожу...

Итак:

1. Интеллект ограничен. Искусственный и естественный интеллект ограничен. Они немного разные и одновременно похожие, но оба имеют серьёзные ограничения на пути к ASI. Супер-интеллект ASI - это лишь гипотеза, его не существует и не может существовать.

2. AGI - это решение проблемы повторения сенсомоторного опыта человека. Это серьёзная проблема. Это следствие ограничения интеллекта (любого). Чтобы решить какую-то задачу, нужно обучить интеллект этой задаче. Если обучения нет, то и не будет решения. Это закон интеллекта. Сейчас у многих заиграет сердечко, но это правда! Пока Исаак Ньютон не ознакомился с результатами Кеплера и прочих математиков и философов, он не мог вывести свои законы. Обучение играет свою роль.

3. Есть такие алгоритмы обучения без учителя (обучение с подкреплением, например), но они плохо работают. Они неэффективны.

-- 16.05.2025, 20:47 --

Я наверное должен дать свой прогноз.

Существенными факторами является:
1. Дешевизна принятия решений ИИ по сравнению с человеком при удовлетворительном или более высоком качестве.
2. ИИ может побороться с гипотетическим "собирательным человеком". "Собирательного человека" не существует, а своего рода "собирательный ИИ" - это абсолютная реальность!
3. ИИ не устаёт. Ему можно загрузить большой объём рутинной высокоинтеллектуальной работы. Люди такое не любят, избегают.

Никакого ASI не будет, AGI будут пытаться достичь, но будет непонятно, где правда. Некоторые зазнавшиеся лентяи (люди) станут работать ручками вместо мозгов.

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение16.05.2025, 21:13 


12/07/15
3593
г. Чехов
Mihaylo в сообщении #1686065 писал(а):
2. ИИ может побороться с гипотетическим "собирательным человеком". "Собирательного человека" не существует, а своего рода "собирательный ИИ" - это абсолютная реальность!
3. ИИ не устаёт. Ему можно загрузить большой объём рутинной высокоинтеллектуальной работы. Люди такое не любят, избегают.

Именно эти два пункта могут позволить посчитать ИИ прообразом недостижимого ASI. Это будет круто, но не беспредельно.

-- 16.05.2025, 21:29 --

Где-то я читал интересную мысль, что у работников умственного труда отберут работники, которые научатся работать с ИИ. Если условный программист не пожелает работать с ИИ и будет набивать себе цену, то его заменят на пользователя ИИ. Уточню: вот я, например, не особо разбираюсь, как обеспечить потокобезопасный код на двухъядерном процессоре. Я что-то в этом понимаю, но как бы туплю, уровень джун. И как оказалось, с помощью ИИ эту проблему можно решить запросто!

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение17.05.2025, 00:01 
Заслуженный участник
Аватара пользователя


16/07/14
9684
Цюрих
Mihaylo в сообщении #1686065 писал(а):
Супер-интеллект ASI - это лишь гипотеза, его не существует и не может существовать
ASI - это интеллект, превосходящий человеческий. Если люди в любой t2t задачи превосходят шимпанзе, и бывают пары людей, такие что один превосходит другого почти в любой t2t задаче, то совершенно непонятно, почему не может существовать системы, сильно превосходящей любого человека в t2t задаче.
Mihaylo в сообщении #1686065 писал(а):
AGI - это решение проблемы повторения сенсомоторного опыта человека.
[citation needed]
Mihaylo в сообщении #1686068 писал(а):
Это будет круто, но не беспредельно
Ошибка безвредной сверхновой. Заявления об "ограниченности" без указания конкретных нетривиальных границ смысла не имеют.
Любую задачу по математике, которую я могу понять за полчаса и решить за год, Тао может решить за 10 секунд. Может ли существовать система, которая за 10 секунд решает любую задачу, которую Тао может решить за 100 лет?
Mihaylo в сообщении #1686068 писал(а):
Я что-то в этом понимаю, но как бы туплю, уровень джун. И как оказалось, с помощью ИИ эту проблему можно решить запросто!
Ага, а еще можно 1000 символов в минуту набирать. В нетривиальном коде, где нужно много думать о граничных случаях, текущие LLM очень веселые баги сажают.
High-trade в сообщении #1686070 писал(а):
https://en.m.wikipedia.org/wiki/Pi - варианты понимания числа PI
Это не "варианты понимания", это эквивалентные определения.

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение17.05.2025, 09:40 


12/07/15
3593
г. Чехов
mihaild в сообщении #1686088 писал(а):
Заявления об "ограниченности" без указания конкретных нетривиальных границ смысла не имеют.
Любую задачу по математике, которую я могу понять за полчаса и решить за год, Тао может решить за 10 секунд. Может ли существовать система, которая за 10 секунд решает любую задачу, которую Тао может решить за 100 лет?

Нужно измерять не время (скорость вычислений), а процент успешно выполненных задач. Конечно, блуждание на задаче в течение N часов повышает шанс нахождения правильного ответа, да. И одновременно свидетельствует о способности искать решение и об упёртости... Reinforcement learning неэффективен, это известно.

 Профиль  
                  
 
 Re: Прогнозы экспертов относительно ИИ
Сообщение17.05.2025, 12:29 
Заслуженный участник
Аватара пользователя


16/07/14
9684
Цюрих
Mihaylo в сообщении #1686119 писал(а):
Нужно измерять не время (скорость вычислений), а процент успешно выполненных задач.
При условии что время остается адекватным. Поиск доказательства перебором всех строк успешно решает очень многое, но слишком долго.

 Профиль  
                  
 
 Re: О возможности создания сверхчеловеческого ИИ
Сообщение17.05.2025, 15:26 


31/01/24
1600
Brussels, Belgium
Mihaylo в сообщении #1686065 писал(а):
Никто из философов не задавался таким вопросом: "Почему на входе интеллекта мало информации, а на выходе много?".


Это Вы проверили всех философов? И почему вообще надо задаваться таким вопросом?

Mihaylo в сообщении #1686065 писал(а):
Это противоречит закону сохранения информации...


Какому закону, простите?

Mihaylo в сообщении #1686065 писал(а):
Науке ответ известен (я, по крайней мере, отражаю это)


Можно ссылочку на научные статьи и монографии, где содержится и точная формулировка вопроса, и ответ на него?

Mihaylo в сообщении #1686065 писал(а):
Супер-интеллект ASI - это лишь гипотеза, его не существует и не может существовать


Так опубликуйте соответствующие доказательства в рецензируемом научном журнале по тематике ИИ. В чем проблема-то?

Mihaylo в сообщении #1686065 писал(а):
1. Дешевизна принятия решений ИИ по сравнению с человеком при удовлетворительном или более высоком качестве.


И заодно перечень доказательств, что принятие решения ИИ будет дешевле во всех случаях, чем у человека.

Mihaylo в сообщении #1686065 писал(а):
"Собирательного человека" не существует, а своего рода "собирательный ИИ" - это абсолютная реальность!


Доказательств этого тезиса тоже не наблюдается в теме.

Mihaylo в сообщении #1686065 писал(а):
Некоторые зазнавшиеся лентяи (люди) станут работать ручками вместо мозгов.


Вы про кого именно сейчас? Потому что миллиарды людей и так работают по всей планете.

 Профиль  
                  
 
 Re: О возможности создания сверхчеловеческого ИИ
Сообщение17.05.2025, 15:42 
Заслуженный участник
Аватара пользователя


20/08/14
9067
Mihaylo в сообщении #1686065 писал(а):
Это противоречит закону сохранения информации
Это что еще за закон? Он эмпирический или эта теорема? Как он в точности формулируется, какое определение информации используется? В каких системах сохраняется информация?

 Профиль  
                  
 
 Re: О возможности создания сверхчеловеческого ИИ
Сообщение17.05.2025, 15:54 


24/04/25
24/05/25
34
Здесь нельзя писать сложно :-)

 Профиль  
                  
 
 Re: О возможности создания сверхчеловеческого ИИ
Сообщение17.05.2025, 16:02 
Админ форума


02/02/19
2999
 !  High-trade
Недельный бан за продолжающуюся генерацию бессодержательных сообщений после предупреждения модератора.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 9 ] 

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group