Жаль, что об этом не знает Джеффри Хинтон, Илья Суцкевер и другие крупные специалисты, которые считают статистику дорогой к AGI.
Может, вы просто плохо о них думаете? Потому что ваша ссылка вас же опровергает. В вашей ссылке фактически утверждается, что просто статистики недостаточно, от галлюцинаций просто так не избавиться, то есть, помимо масштабирования параметров, нужны ещё и качественные изменения модели. И вот только тогда, возможно, с галлюцинациями справится получится. При этом суть аргументов, почему галлюцинаций должно стать меньше, очевидная: приближать ИИ к возможностям человека. То есть в вашей ссылке говорится то же самое, что я вам пытаюсь объяснить, и что вообще очевидно.
Я точно помню, что такой срок давал Сэм Альтман, но надо искать. Оптимистично настроен и Мустафа Сулейман, а Демис Хассабис говорил, что "полагаю, возможности самонаблюдения и планирования помогут с такими проблемами как галлюцинации".
Вы утверждали, что «Прогнозы специалистов говорят об обратном - они обещают, что через пару лет галлюцинаций уже не будет.». Однако «пара лет» — это срок, который Хассабис из вашей ссылки отводит только на старт разработок качественно новых моделей, а что там с ними будет, ещё неизвестно: «Я всегда выступал за тестирование агентов в жестких имитационных песочницах перед тем, как выпускать их в Интернет. Есть много других предложений, но я думаю, что отрасль должна начать действительно думать о появлении таких систем. Возможно, это займет пару лет, а может и меньше. Но это системы другого класса.»
Что со всеми моделями в итоге будет, читайте ниже.
Остальное не комментирую - вы там с сами с собой дискутируете.
Да, верно, в начале моего поста аргументы приведены в форме ответов на предполагаемые вопросы оппонента. В чём проблема? Вы в такой форме аргументы не воспринимаете? Ну, наверное, вы не настолько глупы. Так в чём же дело? Пока вы думаете, как выкрутиться, вот ещё в том же стиле.
Если задать один и тот же вопрос чат-боту и специалисту, то в идеале ответы будут похожи, потому что они оба исходят из того, что в этой области знания на данный момент известно. Только чат-бот ответит и отключится, а человека и вопрос, и ответ обучат, так как наш мозг постоянно обучается. И может быть, что эти изменения, вкупе с другими, приведут человека к новой идее — и в конечном итоге к новому тексту для ИИ. Иными словами, ИИ вторичен и ведом.
Если же сделать ИИ тоже постоянно обучающимся, то у нас правильность знаний контролирует сама жизнь — мы, как говорится, на собственной шкуре знаем цену ошибок. А у ИИ что правильность знаний контролирует? Как вы считаете? Видимо, вы ответите, что опыт? Ощущений-то у ИИ нет, самосохранение ему неведомо. Однако никакой опыт не гарантирует адекватность при дальнейшем обучении, потому что из каждого сколь угодно обученного состояния есть множество неадекватных путей. Поэтому контролируем правильность знаний ИИ всегда мы, а мы выше головы не прыгнем, и что-то непонятное развивать не сможем.
В итоге всегда будет то, что я вам сразу и написал: «сложность поведения ИИ может только бесконечно приближаться к сложности поведения человека.». И почему так, написал: «ИИ существует "внутри" опыта людей, так как создаёт и обучает его человек. В то же время сам ИИ развиваться не сможет, так как он не диссипативная структура. ИИ среда только разрушает, диссипативные структуры среда создаёт, поэтому эволюционировать и самосохраняться умеют только они.».
В этом экзистенциальная проблема бытия ИИ.
А при чем здесь работа человека за зарплату? Ему дают поручения - он их выполняет. Чем это предпочтительнее аналогичного выполнения поручений искусственным интеллектом - помимо того, что "основание любой жизни"?
Вы написали, что «ИИ будет работать 24/7 без всякой мотивации». Я с этим и не спорю. Но при этом вы утверждали, что «У человека на работе, если он не военный/полицейский/пожарный и т.д., нет никакого стремления к самосохранению - у него, в массе, есть стремление поменьше работать и побольше получать.». Я вам объяснил, что стремление к самосохранению есть у всех. Вот, собственно, и всё по этому поводу.
Так и люди ведомые, в своей абсолютной массе - им дают получения, они их выполняют. По мере повышения качества агентов ИИ будет расти и их самостоятельность.
Дело не в росте самостоятельности ИИ, которая в чём-то, может быть, и вырастет. А в том, что при этом «не ИИ, подумав и порешав между собой, будут человека от работы отстранять, а человек будет решать, где ИИ место, чтобы человеку хорошо было.».
Да, ИИ за последний год научился неплохо ориентироваться в пространстве, описывать его, предсказывать и т.д. Я уже не говорю про обучение роботов на виртуальной реальности. Тонкая моторика как таковая есть уже много лет - сложность состоит прежде всего в её автономном выполнении. Сейчас, когда возникают предпосылки для интеллектуальных роботов, будут активно совершенствовать и моторику.
Я вас спрашивал про уборку квартиры. Ваш ответ, как я понимаю, состоит в том, что ИИ даже и близко к этому не приблизился. Верно? Потому что именно это следует из того, что вы написали. Или пришлите ссылки хоть на что-то работающее, хоть как-то близкое к поведению такой сложности.
Вы не смотрели анонсы Gemini и GPT-4o?
Принципиально это тот же чат-бот. Та же хорошая штука, но из-за галлюцинаций, что с ней делать, непонятно. Но у нас тема не о достижениях ИИ, а о том, сможет ли ИИ стать СИИ. Не опровергают ли какие-то нынешние достижения ИИ мою точку зрения, что СИИ невозможен? Нет, Gemini и GPT-4o от СИИ далеки и ничего из мною сказанного не опровергают.
Насчет того как далеко зашло - не знаю, со времени презентации несколько месяцев прошло. Несколько меньше, чем от первых прототипов ткацких станков или паровых машин до нормальных серийных моделей - тогда это заняло десятки лет.
Хорошо, подождём.
Больше похоже на то, что вы пишете откуда-то из 2000х годов, где на уровне философских категорий доказываете невозможность того, что уже существует в 2020х... Вы совсем не следите за новостями?
Что существует с 2020-х? Вы написали, что «Мировой видео-архив, виртуальная реальность - это вполне реальный базис для обучения мультимодальных систем
любой физической работе.». Я вам ответил: «Чтобы это всё стало обучающими примерами, нужна соответствующая система. Примеров самих по себе недостаточно.».
И сейчас вы продолжаете настаивать, что такие системы уже существуют? Тогда приведите пример уже существующей системы, которую достаточно только обучить, и она будет делать любую физическую работу. Со ссылками, естественно. Иначе вы опять к потенциально потенциальным потенциям и верованиям обратитесь, а это уже тяжело читать.
Не важно какие там у него бабочки в животе порхают, пока он влюблен - важно то как любовь возникает, умирает, проявляется и т.д. А это - контекст фактов, а не его внутренние переживания, которые в контексте познавания мира не стоят абсолютно ничего. Ноль.
Внутренние переживания — это не контекст фактов? Вы их чувствуете, они влияют на ваше поведение. Самый что ни на есть контекст, самых что ни на есть фактов. Именно посредством внутренних переживаний, из всего спектра которых вы можете обозначить словами только их ничтожную часть, мы отделяем верное от неверного, реальность от фантазий. А вот ИИ этот контекст фактов недоступен, что из-за этого происходит — см. начало поста.
Ключевая фраза "у ИИ таких переходов нет и быть не может". Откуда вы это взяли - математика запрещает эмерджентность, это разве чисто биологическое явление?
Вы прочитали вот это: «Суть перехода: увеличение интенсивности обмена со средой и рост количества флуктуаций (количественные изменения) в какой-то момент приводит к скачкообразному перестроению системы на новый уровень сложности (появление нового качества).»?
И где это, по-вашему, может быть в ИИ? Куда вы это в ИНС приткнёте? Увеличение интенсивности обмена со средой, флуктуации - где это вообще в ИНС? Скачкообразное перестроение всей структуры сети, как вы себе представляете? Взяла и перестроилась. Как организм в ходе эволюции перестраивается? Его никто не перестраивает, программы перестроения заранее нигде нет. В общем, нет, в ИИ переходов в новое качество быть не может. И явление это не биологическое, а физическое.
Путь будет не сто, а тысяча триллионов - что это меняет? Число параметров ИНС росло на порядки раньше - будет расти на порядки и впредь.
Пусть вначале вырастет. Если туземцу смартфон дать, он в нём только досочку со стёклышком разглядит. А мы-то знаем, что главное внутри. Так же и в мозге — помимо количества, важно качество. Экстрасинаптическая передача и совсем не дискретность синаптической, рост и отмирание связей, неравновесность, хаос и самоорганизация, генетическая программа. Все это тоже отличает мозг от ИИ.
Это не я грезил - это краеугольный факт современной истории ИИ, эмерджентность называется.
Галиматья это называется. Слышал звон, не знаю где он.
А еще ИИ не упрощенное подобие человеческого разума - он (если говорить про ИНС) просто вдохновлен какими-то элементами устройства человеческого мозга.
Чем конкретно ваше «вдохновлён какими-то элементами устройства человеческого мозга» отличается от моего «упрощенное подобие человеческого разума»?
Чтобы вам легче думалось, цитата из Википедии: «Нейро́нная сеть[1] (также иску́сственная нейро́нная сеть, ИНС, или просто нейросе́ть) — математическая модель, а также её программное или аппаратное воплощение, построенная по принципу организации биологических нейронных сетей — сетей нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы.».
Нет, «агенты» НЕ будут заранее знать, как правильно должна функционировать система. Откуда вы это взяли не имею понятия.
Вы предлагали вариант того, как может происходить перестройка системы в новое качество. По-вашему, агенты будут вносить случайные изменения в ИИ и затем сравнивать с результатом. Чтобы сравнить, надо заранее знать, какой результат нужен. Иначе сравнение не имеет смысла. То есть вы написали чушь. О чём я вам и сообщил.
Какое отношение ячейки Бенара, диссипативные структуры, самоорганизация и прочие умные слова имеют к агентам ИИ я тоже не понял.
Диссипативные структуры здесь при том, что только у таких физических систем есть возможность без какого-либо предварительного плана скачком перестраиваться в более сложное, но адекватное среде состояние. То есть совершать тот самый качественный переход. Откройте Википедию, прочитайте, что это такое.
Гомеостаз - это что-то из области бытия: самоорганизация материи и прочая синергетика.
Это всё наука, а бытие — это философия. Разные вещи.
А стремление - это стремление. Я заказываю такси на Дубровку - и таксист стремится меня туда доставить. Чем это отличается от стремления автопилота сделать то же самое? Квалиа и прочими бабочками, порхающими в животе у таксиста?
У вас есть стремления, вы их ощущаете? Вы чего-то хотите, чего-то ждёте, на что-то рассчитываете? Так вот единственным известным нам явлением, которое можно отнести к стремлениям, является гомеостаз. Организм — это диссипативная структура. То есть весь организм как одно целое поддерживает гомеостаз, простой пример такой системы ячейки Бенара. Нейронная сеть мозга всего лишь проецирует динамику гомеостаза в перемещения в среде и конкретные цели этих перемещений. Ну а вы на уровне мозга ощущаете гомеостаз в том числе как свои стремления. Всё просто.
ИИ делает и открытия - но мы вроде про AGI говорили.
Какие открытия сделал ИИ?
Если вы видите проблему в том, что для выводов ИИ нужны тексты, то проблемы нет - Ньютону для выводов тоже нужны были тексты.
Тексты Ньютону были нужны, конечно. Но только для того, чтобы на уже открытое другими время не терять. А новая идея — это всегда обобщение не только старых текстов, а всего воспринимаемого в целом. Иначе наши знания никакой связи с реальностью бы не имели. Любые наши тексты — это производная от реального мира в преломлении опыта.
Во-первых, понятность или непонятность устройства или принятия решений никакого отношения к свободе воли не имеет. Генератор случайных числе совершенно непредсказуем - но он тоже программа.
Всё-таки прочитайте вначале,
что я написал про свободу воли, а потом уже опровергайте. Про случайность у меня тоже написано.
Какие и как - можно почитать здесь
и здесь.
В ваших ссылках ничего о сознании не нашёл. Процитируйте. Может, я пропустил.
Вы же сами говорите, что никто не знает что такое сознание - так откуда ваша уверенность, что это нечто непонятное и неведомое нам не возникнет спонтанно в какой-то сложной системе?
Потому что ИИ по физическим свойствам практически полностью противоположен ЕИ. Поэтому если сознание есть у нас, то его не может быть у ИИ и наоборот. Ну и целая куча более конкретных аргументов есть на этот счёт. Просто вы их сейчас всё равно не поймёте, не за чем стараться.
Что касается инвестиций в ИИ и его будущего, то мнения ученых разделились примерно пополам.
Странно. По-вашему, ИИ — это прям золотое дно. Вас послушать, ИИ чуть ли не на днях уже всё сможет. Чего бы не вложиться.
И не надо сюда привлекать метафизическое "стремление к самосохранению".
Цитата:
Гомеоста́з (др.-греч. ὁμοιοστάσις от ὅμοιος «одинаковый, подобный» + στάσις «стояние; неподвижность») — саморегуляция, способность открытой системы сохранять постоянство своего внутреннего состояния посредством скоординированных реакций, направленных на поддержание динамического равновесия.
Стремление системы воспроизводить себя, восстанавливать утраченное равновесие, преодолевать сопротивление внешней среды.
Гомеостаз. Википедия.
Вот только при чём здесь метафизика, я не понял. С другой стороны, вы стремления ощущаете? Желания? Вообще эмоции и ощущения? Они есть, по-вашему, или их нет? Если есть, то почему бы стремлениям не быть психическим проявлением гомеостаза? А если их нет, то как вы ощущаете мир тем, чего нет?
Вы застряли на "ячейках Бенара", впрочем, я кажется, уже писал об этом.
Да, писали. Только что вас не устраивает, непонятно. Ячейки Бенара — это диссипативная структура. Субъект тоже. Почему бы мне не застрять на них, если ячейки Бенара — это пример простой физической системы, демонстрирующей принципиально сходное с субъектом поведение?
Полагаю, проблема в этом:
Почему бы эволюции не остановиться на стадии червей и водорослей, условно говоря? И вот этот вопрос никакими физическими законами не регламентируется и ни из каких физических принципов не следует(разве что, из пресловутого антропного принципа)
Дело в том, что после появления первой клетки, а тем более многоклеточных, дальнейшая эволюция просто-таки абсолютна естественна, её механизмы в целом очевидны и никаких новых законов или постулатов не требуют. Вы этого не понимаете, то есть где-то что-то у вас с ног на голову перевёрнуто, из-за чего очевидные вещи вам кажутся невозможными, требующими чего-то ещё, какого-то недостающего звена.
Пардон, у создателей DirectX была цель создать систему управления, а какая цель у ячеек Бенара?))
А у нас откуда цели? Если мы с ног до головы те же самые диссипативные структуры? Ячейку Бенара изолируйте от обмена веществом, и она тут же исчезнет, растворится в среде. Человека воздуха лишите, и он точно так же исчезнет, распадаясь на элементы и растворяясь в среде. И первым растворяться начнёт мозг, так как он по своим общим свойствам из всего организма к ячейкам ближе всего.
Примерно в конце 2000-х про объяснение эмерджентных явлений в поведении мусоровозки с клешнями при помощи "самоорганизованной критичности" практически забыли, поскольку на передний план вышло новое мировоззрение - чилавек это нейросеть, засунутая в робота, только уж больно сложная.
По поводу возраста без комментариев. А что касается вашего противопоставления биологических нейронных сетей и гомеостаза, то это новое слово в науке я прокомментировал в ответе
MoonWatcher выше.