2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1 ... 7, 8, 9, 10, 11  След.
 
 Re: AGI и пироги
Сообщение24.09.2025, 21:23 
Аватара пользователя
Mihaylo в сообщении #1703149 писал(а):
Ограниченное время - это обязательно
Так я и пытаюсь от Вас какие-то численные ограничения получить, а Вы их не хотите сообщать. И получается стандартная ошибка безвредной сверхновой.

 
 
 
 Re: AGI и пироги
Сообщение24.09.2025, 22:11 
Mihaylo в сообщении #1703140 писал(а):
Это несущественно.


Это существенно. Особенно в свете того, что более чем возможны потенциальные будущие технологии (нанороботы), которые выполнение этой задачи будут способны реализовать.

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 04:08 
Ghost_of_past в сообщении #1703159 писал(а):
Это существенно. Особенно в свете того, что более чем возможны потенциальные будущие технологии (нанороботы), которые выполнение этой задачи будут способны реализовать.

Интересно, правильно ли я понимаю, что Вы не считаете возможными в обозримой перспективе системы искусственного интеллекта способные заменить человеческий труд (особенно по написанию скриптов на R в 2000 строк :mrgreen:), но считаете возможными системы искусственного интеллекта способные разобрать Землю на скрепки?

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 04:43 
mihaild в сообщении #1703154 писал(а):
Так я и пытаюсь от Вас какие-то численные ограничения получить, а Вы их не хотите сообщать.

А одним словом, ASI невозможен из-за ограниченности скорости получения знаний из ничего - так непонятно?
Разбор планеты на скрепки - это гиблая задача без учителя. А смена работы - это получше, обучение с подкреплением, небольшой поток информации на старте существует.
И потом, есть проблема с самой постановкой задачи разбора на скрепки... Поэтому эта фигня несущественна.

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 08:29 
Cuprum2020 в сообщении #1703175 писал(а):
Интересно, правильно ли я понимаю


Неправильно.

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 13:53 
Аватара пользователя
Mihaylo в сообщении #1703178 писал(а):
А одним словом, ASI невозможен из-за ограниченности скорости получения знаний из ничего - так непонятно?
Нет, непонятно. ASI - это не дельфийский оракул, ASI - это система, извлекающая знания более эффективно, чем это делают люди. Поскольку люди извлекают знания более эффективно, чем шимпанзе, а шимпанзе - более эффективно, чем ящерицы, то системы с разной эффективностью существуют. Совершенно непонятно, почему естественный отбор должен был бы хоть насколько-то приблизиться к максимальной эффективности.
Mihaylo в сообщении #1703178 писал(а):
Разбор планеты на скрепки - это гиблая задача без учителя
Как и разработка огнестрельного оружия. Однако же как-то справились за смешное по геологическим меркам время.

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 15:07 
mihaild в сообщении #1703210 писал(а):
разработка огнестрельного оружия

Здесь была другая постановка задачи, примерно такая: "Надо придумать, как убивать много врагов, чтобы погибло меньше союзников". И постепенно это выродилось в решение - огнестрельное оружие.

А если разбирать на скрепки, то это слишком конкретно и неисполнимо.

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 16:39 
Ghost_of_past в сообщении #1703184 писал(а):
Неправильно

А как тогда следует Вас понимать?

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 19:36 
Cuprum2020 в сообщении #1703233 писал(а):
А как тогда следует Вас понимать?


Наверное, это надо было спросить до того, прежде чем выдвигать странные обвинения.

Я вовсе не отрицаю возможность ИИ заменить как минимум часть человеческого труда в будущем (а вкупе с робототехникой возможно и весь труд). Я отрицаю, что это случится сейчас/в несколько ближайших лет: нынешняя ситуация с LLM и ИИ - это вполне себе классический рыночный и информационный пузырь. Пузырь, который неизбежно сдуется тем или иным образом.

А развитие технологий ИИ продолжится - просто без реализации активных фантазий, что завтра LLM смогут заменить труд секретарей. И с уменьшением числа этих фантазий. Примерно также, как развитие IT не смогло заменить труд бухгалтеров и к середине 2020ых, хотя некоторые эксперты утверждали, что это случится еще к середине 2010ых.

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 20:49 
Ghost_of_past в сообщении #1703247 писал(а):
А развитие технологий ИИ продолжится

Я читал однажды в середине двухтысячных книжку одного доктора наук, о том что нанотехнологии переоценены и они пузырь, но когда пузырь лопнет начнётся нормальная а не ажиотажная работа над нанотехнологиями и они дадут свои плоды, между прочим он являлся в ту пору как раз главой городского наноцентра, который вроде бы даже ещё существует и носит сейчас его имя. Так вот, пузырь то конечно лопнул, но никаких плодов нормальной работы над нанотехнологиями как будто бы и нет. Так что на мой взгляд тут та же ситуация: или ИИ пузырь и тогда ни в каком обозримом будущем Землю на скрепки не разберут, или же ИИ не пузырь, и тогда до разбора Земли на скрепки почти все успеют оказаться безработными

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 21:47 
Ок, давайте рассмотрим такую теоретическую штуку как antiAGI - "самый умный человек". Этому человеку дают некоторое значительное время, максимальная поддержка от самых лучших учителей, снабжение учебниками, длительную жизнь, кормление, сон, мотивацию. По сути это собирательный образ всех учёных, изобретателей и других важных и умных людей.
Вы же, когда говорите об открытии огнестрельного оружия, забываете, что над ним работал не один интеллект, а сотни-тысячи - antiAGI.

А сравниваете с одним ИИ, который выдвинул три версии, но те не проканали.

Вы для себя поточнее определите, где нижняя и верхняя граница одного человека и где нижняя и верхняя граница одной LLM. Вы почему-то в этой шкале вместо простого человека ставите antiAGI, вы его путаете с одним обычным человеком. А это глупая ошибка. Обычный человек не может открыть огнестрельное оружие, для этого ему нужны некоторые неизбежные условия, но они ставят под вопрос его самостоятельную деятельность и успешность.

-- 25.09.2025, 21:50 --

Я давно уже понял, люди не умеют держать весы в оценке возможностей ИИ и в оценке возможностей самих себя. И там, и там баланс сбит, в разные стороны, кстати, себя любим, ИИ - дурак.

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 22:24 
Cuprum2020 в сообщении #1703251 писал(а):
о том что нанотехнологии переоценены и они пузырь


Конечно, они и были пузырем в конце 2000ых-начале 2010ых. Просто пузырем меньшего размера.

Cuprum2020 в сообщении #1703251 писал(а):
но никаких плодов нормальной работы над нанотехнологиями как будто бы и нет


Химики и материаловеды на этом моменте смотрят с удивлением - нанотехнологии там очень даже развиваются. И практические плоды надо ждать на горизонте в десятки лет, а не в условном завтра. С ИИ в целом аналогично - LLM конечно шаг вперед, но до сильного ИИ таких шагов еще не один и не два.

 
 
 
 Re: AGI и пироги
Сообщение25.09.2025, 23:05 
Аватара пользователя
Mihaylo в сообщении #1703224 писал(а):
А если разбирать на скрепки, то это слишком конкретно и неисполнимо
То, что может быть разберут на скрепки, а может быть на кнопки, и неизвестно, на что именно, не сильно лучше.
Mihaylo в сообщении #1703256 писал(а):
Вы для себя поточнее определите, где нижняя и верхняя граница одного человека и где нижняя и верхняя граница одной LLM. Вы почему-то в этой шкале вместо простого человека ставите antiAGI, вы его путаете с одним обычным человеком. А это глупая ошибка. Обычный человек не может открыть огнестрельное оружие, для этого ему нужны некоторые неизбежные условия, но они ставят под вопрос его самостоятельную деятельность и успешность.
Вы с кем разговариваете? По форме выглядит как будто ответ мне, но никакого отношения к тому, что я говорю, не имеет.
Cuprum2020 в сообщении #1703233 писал(а):
А как тогда следует Вас понимать?
Вы, возможно, путаете позицию Ghost_of_past и мою.
Ghost_of_past утверждает, что никакого быстрого существенного эффекта от LLM и другим ML технологий не будет, а если какой-то и будет - то медленный и схожий с предыдущими изменениями.
Я нахожу такой сценарий вполне возможным, но нахожу возможнымы и hard takeover сценарии.
Сходимся мы с ним в том, что сценария "Безос стал богом-императором, создав сверхумную служащую ему модель" не будет.

 
 
 
 Re: AGI и пироги
Сообщение26.09.2025, 07:27 
mihaild в сообщении #1703262 писал(а):
То, что может быть разберут на скрепки, а может быть на кнопки, и неизвестно, на что именно, не сильно лучше.

Ну вот видите, ваш мысленный эксперимент тупиковый. Оказалось неизвестно, скрепки или кнопки или что-то похуже. Ну съехали с продуктивного разговора и всё. Я ж говорил, что это несущественно.

-- 26.09.2025, 07:28 --

mihaild в сообщении #1703262 писал(а):
Вы с кем разговариваете?

С поклонниками, мозгопоклонниками.

 
 
 
 Re: AGI и пироги
Сообщение26.09.2025, 08:08 
Ghost_of_past в сообщении #1703258 писал(а):
Химики и материаловеды на этом моменте смотрят с удивлением

А я с удивлением смотрю на химиков и материаловедов. Какие такие значимые нанотехнологические достижения случились в российской химии и материаловедении? Такого же рода "достижения" в области ИИ на горизонте в десятки лет мною и замечены то не будут

-- 26.09.2025, 08:18 --

mihaild в сообщении #1703262 писал(а):
Ghost_of_past утверждает, что никакого быстрого существенного эффекта от LLM и другим ML технологий не будет, а если какой-то и будет - то медленный и схожий с предыдущими изменениями

Но при этом, если я правильно его понял, он считает возможным разбор Земли на скрепки нанороботами, по-видимому, на интервалах времени сравнимых с потенциальной длительностью его жизни и мне не очень понятно как это согласуется с медленным прогрессом. Я же склонен считать, возможно глубоко ошибочно, что или ИИ взлетит относительно быстро и очень высоко, или утонет, как утонул космос в 1972
Mihaylo в сообщении #1703256 писал(а):
Вы для себя поточнее определите, где нижняя и верхняя граница одного человека и где нижняя и верхняя граница одной LLM

Какая польза от AGI если он, например, будет обслуживаться персональной атомной станцией и будет превосходить всего лишь одного отдельно взятого и не самого умного человека?

 
 
 [ Сообщений: 158 ]  На страницу Пред.  1 ... 7, 8, 9, 10, 11  След.


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group