2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 19, 20, 21, 22, 23, 24  След.
 
 Re: Еще раз про сильный ИИ
Сообщение13.06.2024, 14:48 
Аватара пользователя


17/10/22
367
Dicson в сообщении #1642390 писал(а):
Всё-таки вера в LLM в среде специалистов не железобетонная? Ну, хоть об этом договорились. Но цитату, из которой следует, что Хинтон и Суцкевер уверены в достаточности LLM, вы всё же хотелось бы увидеть. Слишком уж часто вы желаемое за действительное выдаёте.

Во-первых, приведите хоть один пример, где я выдаю желаемое за действительное. Во-вторых, это скорее вы договорились, а не я. В отличие от вас, у меня нет убежденности в этом вопросе, и в отличие от вас, я интересуюсь позицией специалистов и знаю какие среди них разные мнения. С позицией Хинтона можете ознакомиться, например, здесь: "Думаю, что использование больших моделей и обучение их на мультимодальных данных, даже если это только для предсказания следующего слова, — настолько перспективный подход, что нам следует почти полностью сосредоточиться на этом." А вот соответствующий фрагмент из интервью Суцкевера. И уж конечно этими двумя авторитетнейшими (наряду с их оппонентами, Яном Лекуном и Демисом Хассабисом) учеными число сторонников LLM как способа достигнуть AGI не исчерпывается.

Dicson в сообщении #1642390 писал(а):
И я не вижу. Вот только, как ИИ будет оценивать правильность своего обучения? У нас если неправильно научился, то холодно, голодно и падаешь. Неприятно, больно, обидно и можно умереть. Волей-неволей к окружающему повнимательнее приглядишься, чтобы своё поведение адекватно ему скорректировать. А у обучающегося ИИ как эта корректировка будет происходить? Вот вы пишете: «В будущем ИИ-агенты возможно будут жить в виртуальной реальности и оценивать друг друга по критериям качества, принятым в нашей реальности.» Но виртуальная реальность — это упрощение реальной реальности, и критерии тоже упрощение. Упрощение на упрощении очень быстро превратится в полностью неадекватное поведение ваших ИИ-агентов, по отношению к реальности реальной.

Абсолютное большинство людей живет в плену у заблуждений, и им от этого ни холодно, ни голодно. Человечество как вид - да, оно развивается. Но развивается через интеллектуальные элиты, которые, преодолевая костры инквизиции и остракизм сограждан, тянут за собой человечество. И происходит это в долгосрочной перспективе, в течение многих поколений. Вышеупомянутые новости, научные публикации и т.д. - это как раз наследие этих поколений, а также информация из современности, на которой обучаются и те немногие люди, которые стараются это делать. Причем без всяких последствий за неправильное обучение. Чем же этот подход плох для ИИ? Что касается виртуальной реальности, то она упрощает отдельно взятую действительность - но при этом может охватить их огромное множество, за пределами опыта отдельно взятого человека.

Dicson в сообщении #1642390 писал(а):
Вот это другое дело. Но если оценивать будет человек, то и сложность человека ИИ не превзойдёт. О чём и речь в этой теме.

Превзойдет, причем многократно - поскольку может охватить огромное множество ситуаций за пределами жизненного опыта отдельно взятого человека. По аналогии с игрой го, разыграв множество партий AlphaGo научилась делать интуитивно понятные ей (но непонятные специалистам) ходы, которые оказывались правильными. А вы рассуждаете так, словно современный ИИ - это набор заранее предписанных действий на разные случаи жизни.

Dicson в сообщении #1642390 писал(а):
Если бы мы только лишь «извлекали закономерности из текстовой информации», то откуда бы тогда взяться самим текстам?

Убийственный аргумент против текстов как наше всё, верно?

Аргумент никудышный. Вы никак не поймете, что человек != человечество. Тексты писало человечество - и постепенно приобщалось новыми текстами людей, часть которых извлекала из этих текстов новые закономерности. Ньютон - это инструмент извлечения закономерностей из текстов - без них он, простите, никто и звать его никак. Вопрос в том, может ли стать таким инструментом языковая модель, оперирующая навыками извлечения исключительно статистических текстовых закономерностей.

Dicson в сообщении #1642390 писал(а):
Ещё раз вам говорю. В довесок к этим разумным утверждениям вы написали, что не у всех людей есть стремление к самосохранению. Я вам объяснил, что у всех. С автоматизацией производства никто не спорил.

Не надо искажать смысл моих слов - я сказал, что НА РАБОТЕ не у всех людей есть стремление к самосохранения. "Еще раз вам говорю"© - оно есть у военных, пожарных, полицейских и т.д. А остальные выполняют поручения начальства без страха за свое самосохранения. Отличие ИИ с точки зрения мотивации только в том, что он в ней не нуждается. Поэтому в этом отношении нет никакой разницы между ИИ-солдатом и ИИ-бухгалтером - он будет просто делать порученную ему работу.

Dicson в сообщении #1642390 писал(а):
Вы написали, что «Мировой видео-архив, виртуальная реальность - это вполне реальный базис для обучения мультимодальных систем любой физической работе.». Я вам ответил: «Чтобы это всё стало обучающими примерами, нужна соответствующая система. Примеров самих по себе недостаточно.». И далее попросил привести пример уже существующей системы, которую достаточно только обучить, и она будет делать любую физическую работу.

Примеров нет. Вы выдаёте желаемое за действительное.

Ну, если вас забанили в Гугле - извольте: Robots learn to perform chores by watching YouTube

Dicson в сообщении #1642390 писал(а):
Если «контекст можно реализовать объективно», то наука, получается, уже «придумала способ объективного описания субъективного опыта», так как в ИИ всё можно описать. Он сам описание, алгоритм. Инструкция, что делать с сигналами на входе, как конкретно их преобразовать в сигналы на выходе. Но вы утверждаете, что наука не придумала. Остановитесь на чём-нибудь одном.

Остановился, читайте еще раз: контекст можно реализовать объективно - в отличие от субъективного квалиа (набора внутренних ощущений). Контекст в данном случае - это как раз то, что можно описать словами.

Dicson в сообщении #1642390 писал(а):
Чтобы оценить последующий результат, нужно знать, какой результат правильный. А если вам известен правильный результат эволюции, то зачем вам нужна эволюция? Сразу создайте нужную вам систему и всё. Если же вы имеете в виду, что эволюция у вас будет идти как случайный перебор, то вы устанете ждать нужного варианта. И при этом в любом случае система не выйдет за рамки того, что мы можем оценить. То есть СИИ так не создать. Впрочем, его никак не создать.

Давайте на котиках попробую объяснить. Сверточной ИНС дали посмотреть миллион изображений с котиками, после обучения на которых ей уже не "нужно знать, какой результат правильный" - она уже обучилась. В этом и состоит смысл обучения - в отличие от жестко детерминированных алгоритмов действий на все случаи жизни.

Dicson в сообщении #1642390 писал(а):
Нет, вы не понял, что написано про свободу воли. Свобода воли не может иметь никакого выражения в языке. ИИ же — это инструкция, язык. Всё непонятное в нём практического характера — сложно на бумажке расписать все происходящие в нём вычисления.

Что значит "свобода воли не может иметь никакого выражения в языке"? :?: Насчет того, что "сложно на бумажке расписать все происходящие в нём вычисления" тоже не понял. На всякий случай еще раз поясню: на бумажке можно расписать общий механизм принятия решений ИИ - как на таком уже уровне абстрагирования можно расписать общий механизм принятия решений человека. А почему было принято какое-то конкретное решение, расписать невозможно - как в случае с ИИ, так и в случае с человеком. То есть объяснить это решение в большинстве случаев можно - невозможно доказать его неизбежность. И в этом, кстати, одна из проблем ИИ в будущем - мы можем не понять его решения в каких-то слишком сложных для нашего разума задачах. И в отличие от AlphaFold, не всегда сможем это решение проверить.

Dicson в сообщении #1642390 писал(а):
Почитал. Открытий, сделанных именно ИИ, не заметил. Цитирую вашу ссылку: «Решения, созданные FunSearch, концептуально гораздо богаче, чем просто наборы чисел. Когда я изучаю их, я что-то узнаю» — сказал Джордан Элленберг, привлечённый профессор математики. «Что меня волнует больше всего, так это новые способы взаимодействия человека и машины», — добавил он, «Я не смотрю на это как на замену людям-математикам, это мультипликатор их силы».

С AlphaFold то же самое.

Смотря что понимать под понятием "сделать открытие". Пока ИИ в большей степени выступает как инструмент, но инструмент в этих конкретных открытиях незаменимый.

Dicson в сообщении #1642390 писал(а):
В этой мы теме приводим аргументы, а не силой веры меряемся. Идея, что если сейчас паровоз до 100 км/ч разогнали, то и до какой угодно скорости разгоним, не соответствует реальности, так как мир нелинеен. И одно из следствий нелинейности мира состоит в том, что мнения и надежды других людей, не подкреплённые аргументами, — в этой теме не аргумент.

По-вашему компании вкладывают в масштабирование ИИ сотни миллиардов долларов без всяких аргументов? А вышеупомянутые Хинтон и Суцкевер просто меряются силой веры? :?:

Dicson в сообщении #1642390 писал(а):
Ваши постановочные видео с минимумом возможностей (у Darpa роботы ловчее прыгали) — это даже для уборки квартиры около нуля. Тонкой моторики как таковой там не видно (всё это действительно было и 20 лет назад). Сравните с собственной ловкостью и представьте хотя бы, сколько рецепторов надо нацепить на эту искусственную руку, чтобы она смогла так же тонко чувствовать объекты, как рука человека, и сколько дополнительной информации в мозг ИИ это принесёт. И её всю надо увязать со всем остальным. И сколько вы будете обучать робота с реально сложной моторикой, если даже таким простым операциям «робот научился после того, как десятки раз проделал эти операции под управлением человека». Поэтому о приближении к СИИ я уж молчу.

Условно говоря, вы приводите мне в пример то автомобиль, то самолёт, то ракету, — мол, смотрите, прогресс идёт, скорость света уже не так далеко. Но при этом по факту ваши примеры от скорости света сильно далеки, а главное, вы не опровергаете ТО. То есть принципиальные аргументы о невозможности СИИ.

Я не знаю куда там прыгали роботы DARPA, но выше, как вы и просили, я привел конкретные примеры выполнения домашней работы - с соответствующей моторикой и, частично, ИИ.

-- 13.06.2024, 15:34 --

Dicson в сообщении #1642390 писал(а):
Обмена самого по себе недостаточно. Обмен должен быть настолько интенсивный, чтобы система потеряла стабильность, так как переход происходит через этап хаоса. То есть такой, чтобы система, в которой реализован ИИ (компьютер или какая-то аппаратная реализация), полностью разрушилась. Однако если вы расплавите компьютер, то вы его просто уничтожите, и ничего больше. Иное равносильно повторению биологических систем во всей их сложности, а это, в свою очередь, равносильно возможности управлять морфогенезом и выращивать любые организмы с любыми интеллектами и вообще свойствами. Но этим путём не идут, потому что биология непонятна, как следствие, морфогенез управлению поддаётся слабо.

Но вас же интересует, можно ли всё это выразить программно? Посмотрим.

Не увидел в последующих рассуждениях ничего похожего на программную реализацию. Программная реализация есть здесь и сейчас - в рамках большой языковой модели, которая в последнее время успешно объединяет разные модальности (т.е. охватывает не только статистические текстовые закономерности, но и простые закономерности нашего физического мира) и даже комбинируется с символьной логикой. Программную реализацию обмена данными со внешней средой в рамках такого подхода я представляю как дообучение на новой информации, генерируемой этой средой, и даже переписывание исходного кода ИИ-агентами, натасканными на программирование.

Сначала вы подменяли человека человечеством, теперь - чуть ли не Вселенной, или как минимум разумной жизнью на Земле. Между тем задача состоит в том, чтобы воспроизвести разум ОТДЕЛЬНО ВЗЯТОГО ЧЕЛОВЕКА. Вы не поверите, но это уже случилось, здесь и сейчас. Потому что чат-боты уже умнее множества отдельно взятых людей, которые не умеют программировать, понимать юмор, сочинять стихи или музыку, писать картины, решать задачи по разным дисциплинам, проходит собеседование и т.д. Да, безусловно - чат-боты тупят и зачастую неспособны решить элементарные задачи на фоне решения ими довольно сложных. Но хоть вы тресни, никто из вашего брата-скептика несколько лет назад в возможность такого не поверил бы, и как дважды два доказал на ячейках Бенара, что это невозможно. Давайте не будем лукавить и делать вид, что вы-де всё это предвидели и уже тогда понимали, что это упрется в какой-то потолок, ладно? Весь ход ваших рассуждений, довольно умозрительных и сильно оторванных от происходящего сейчас в ИИ, сводится к тому, что предел языковых моделей - это продолжение слов "смысл жизни" языковой моделью 2011 года:
Цитата:
Смысл жизни — это традиция древнего человеческого воспроизводства: это менее благоприятно для хорошего мальчика, когда его нужно убрать. В шоу единогласно всплыла договоренность. Дикие пастбища с постоянными уличными лесами были включены к 15 веку до н.э. В 1996 году первичный рапфорд подвергся усилию, что резервирование условий, записанных в еврейские города, спящих для включения Евразии, которая активирует население. Мария Националь, Келли, Зедлат-Дукасто, Флорендон, Пту считает. Чтобы адаптироваться в большинстве частей Северной Америки, динамичная фея Дэн, пожалуйста, верит, что свобода слова во многом связана с

Давайте не будем делать вид, что всё, что мы имеем сейчас представляет собой косметическое улучшение данного бредогенератора - налицо безусловный прорыв. Так вот вопрос в том:
1) возможно ли продолжение этого прорыва - за счет уже упомянутого мною увеличения числа параметров, количества и качества обучающего дата-сета, добавления новых модальностей, новых архитектурных решений (сети Колмогорова-Арнольда, комбинирование с символьной логикой и т.д.)?
2) способно ли оно привести ИИ к СИИ?

Вы все эти достижения игнорируете или представляете чем-то само собой разумеющимся - даром, что такого не ожидали даже отцы-основатели современного ИИ. Вы все время подменяете эти моменты какой-то абстрактной философской концепция зарождения разумной жизни на Земле - но о ней можно спорить тем дольше, чем она абстрактнее. В моем понимании куда плодотворнее и интереснее обсуждать возможные подходы к созданию СИИ, а не ставить на нем философский крест. Тем более, что ваша позиция явно маргинальна в науке - если еще лет десять назад ученые на эту тему и спорили, то сейчас я подобных дискуссий не встречаю.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение13.06.2024, 18:43 


12/07/15
3322
г. Чехов
LOM в сообщении #1642409 писал(а):
Отношениям ИИ надо отдельно учить, размечать выборку. Кто ж этим заниматься будет?

И это чисто диалоги, без невербалики.

Вы в какой-то степени правы. Требуется решить проблему повторения сенсомоторного опыта человека. Но, как показывает практика, похоже, не обязательно повторять этот опыт на все 100%. Достаточно повторить лишь опыт генерации текстов и всё выглядит как по-настоящему. Похоже в текстах заложен достаточный объём знаний обо всём. Ну давайте сделаем оценку - 90% знаний есть в текстах.

В рисунках, фотографиях есть 90% всей необходимой информации, не хватает только умения четко отсчитать количество пальцев и правильно учесть проекции на изображение...

Мне кажется, как только будут появляться простейшие мультимодальные модели, то проблема повторения сенсомоторного опыта человека станет уходить на задний план, но коэффициент повторения никогда не достигнет 100%, ну может это уже и не будет особо важным.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение13.06.2024, 19:06 


10/03/16
4444
Aeroport
MoonWatcher в сообщении #1642486 писал(а):
остальные выполняют поручения начальства без страха за свое самосохранения


Страх что тебя уволят - это оно или нет? )

MoonWatcher в сообщении #1642486 писал(а):
ИИ-солдат... он будет просто делать порученную ему работу.


Ради прикола можно вспомнить концепцию Goal Oriented Action Planning, реализуванную, к примеру, в F.E.A.R: боты боятся помереть, что хорошо видно по их поведению.

MoonWatcher в сообщении #1642486 писал(а):
Между тем задача состоит в том, чтобы воспроизвести разум ОТДЕЛЬНО ВЗЯТОГО ЧЕЛОВЕКА.


Мы не знаем, каким интерфейсом связано человечество с отдельным человеком - очень много принципиально неизмеримой невербалики. Например, один растет вдали от городской суеты, в красивом доме на зелёненькой травке, питаясь натурпродуктами. Другой - в панельной многоэтажки среди уродства, гвалта, и продуктов из Пятёрочки. Казалось бы, банальщина (жуткая), но эти двое поступают в универ и взаимодействуют с третьим, который потом изобретает эффектиивный алгоритм обучения Вашей CNN без застревания в локальных минимумах.

MoonWatcher в сообщении #1642486 писал(а):
Но хоть вы тресни, никто из вашего брата-скептика несколько лет назад в возможность такого не поверил бы, и как дважды два доказал на ячейках Бенара, что это невозможно. Давайте не будем лукавить и делать вид, что вы-де всё это предвидели и уже тогда понимали, что это упрется в какой-то потолок, ладно?


Dicson-то понятно ничё не предвидел, но как быть с каким-нибудь Павлом Арсеновым, снявшим Гостью из БудуЮщего? Там Робот Вертер: складно говорит, защищает Алису (или Боба, я уж не помню), понимает юмор и голосовые команды - чем не прогноз? По-хорошему надо провести мета-исследование разброса прогнозов на 2024-й год, от писсимистичных до оптимистичных - центрируется этот диапазон на текущем состоянии прогресса ИИ?

-- 13.06.2024, 19:07 --

Mihaylo в сообщении #1642507 писал(а):
всё выглядит как по-настоящему


Это не критерий.

-- 13.06.2024, 19:11 --

Mihaylo в сообщении #1642507 писал(а):
не хватает только умения четко отсчитать количество пальцев и правильно учесть проекции на изображение...


Угу - ещё правильно просчитывать освещение. Когда на тулово, находящееся в солнечный день на улице, лепится голова, у которой сегодня явно романтический ужин при свечах, мне хочется заорать ААААА! и выпрыгнуть в окно. В прочем, есьт куча игр, где текстуры страдают тем же недостатком и при этом в них явно кто-то играет.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение13.06.2024, 19:35 


17/03/20
267
MoonWatcher в сообщении #1642486 писал(а):
Между тем задача состоит в том, чтобы воспроизвести разум ОТДЕЛЬНО ВЗЯТОГО ЧЕЛОВЕКА. Вы не поверите, но это уже случилось, здесь и сейчас.
Сильно сказано, потому что, не правда. Никакого разума человека, ни разума музыканта, ни разума скульптора, ни разума министра, ни разума кухарки, никто ещё не сделал в виде ИИ. ИИ - инструмент. Да, человеческому разуму дали очередной инструмент, что бы он, не имея возможности к рисованию, смог нарисовать, что он хочет с минимальными затратами и максимально по потребности. И так по всему,что может делать ИИ. Одним словом - "чего изволите-с ?"
MoonWatcher в сообщении #1642486 писал(а):
Потому что чат-боты уже умнее множества отдельно взятых людей, которые не умеют программировать, понимать юмор, сочинять стихи или музыку, писать картины, решать задачи по разным дисциплинам, проходит собеседование и т.д.
. С каких пор умение играть на балалайке делает Шарикова умнее Преображенского, который, увы, не умеет играть на балалайке?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение13.06.2024, 19:37 


10/06/24

61
Mihaylo
Нейронка, помогающая установить отношения имеет такие требования к обучающей выборке.
Много отношающихся пар записывают всё своё поведение на видео, лучше на них дополнительно повесить датчики в разных местах.
И записывают промежуточные результаты отношений как функцию подкрепления.
Хорошо обученный ИИ будет подсказывать когда взять дэвушку за руку и за какую руку, когда под руку, когда сказать «я тебя люблю», в какой позе заниматься сексом, что сказать непосредственно после секса и с утра, как одеть и снять презерватив чтоб дэвушка не заподозрила в неопытности, ну и т.д., и. Т. П.
Где найти такие пары?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение13.06.2024, 19:44 


10/03/16
4444
Aeroport
LOM
На сайтах знакомств. Пишете: я ищу пару МЖ. При знакомстве сообщаете, что Вы бихевиорист датасайентист вуайерист, а возбуждают Вас исключительно объективные показания датчиков.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.06.2024, 02:14 
Аватара пользователя


17/10/22
367
ozheredov в сообщении #1642509 писал(а):
Страх что тебя уволят - это оно или нет? )

Это просто страх :mrgreen: В любом случае у человека есть мотиватор ходить на работу - в котором ИИ не нуждается.

ozheredov в сообщении #1642509 писал(а):
Ради прикола можно вспомнить концепцию Goal Oriented Action Planning, реализуванную, к примеру, в F.E.A.R: боты боятся помереть, что хорошо видно по их поведению.

Не думаю, что роботы-солдаты будут нуждаться в страхе или его аналогах - они будут обучены на тактических тренировках солдат, где в приоритете не выживание, а выполнение боевой задачи. Которое, в свою очередь, невозможно без выживания.

ozheredov в сообщении #1642509 писал(а):
Мы не знаем, каким интерфейсом связано человечество с отдельным человеком - очень много принципиально неизмеримой невербалики. Например, один растет вдали от городской суеты, в красивом доме на зелёненькой травке, питаясь натурпродуктами. Другой - в панельной многоэтажки среди уродства, гвалта, и продуктов из Пятёрочки. Казалось бы, банальщина (жуткая), но эти двое поступают в универ и взаимодействуют с третьим, который потом изобретает эффектиивный алгоритм обучения Вашей CNN без застревания в локальных минимумах.

Интерфейс мы вроде знаем - учеба (учебники и прочее). Разница скорее в индивидуальных свойствах интеллекта, извлекающего из учебы полезную информацию и проецирующего её на интересующие его задачи.

ozheredov в сообщении #1642509 писал(а):
Dicson-то понятно ничё не предвидел, но как быть с каким-нибудь Павлом Арсеновым, снявшим Гостью из БудуЮщего? Там Робот Вертер: складно говорит, защищает Алису (или Боба, я уж не помню), понимает юмор и голосовые команды - чем не прогноз? По-хорошему надо провести мета-исследование разброса прогнозов на 2024-й год, от писсимистичных до оптимистичных - центрируется этот диапазон на текущем состоянии прогресса ИИ?

На то и фантастика, чтобы ничем не сдерживать свою фантазию. Опросы специалистов есть, но они быстро устаревают. Вот как распределись прогнозы (когда ИИ полностью сможет заменить человека, с 50% вероятностью) в опросах, проведенных среди почти трех тысяч ИИ-специалистов, за последние три года:
опрос в 2016 - заменит в 2138
опрос в 2022 - заменит в 2164
опрос в 2023 - заменит в 2116.

Правда, здесь не только AGI, но и роботы, поскольку речь идет о замене человека в любом виде деятельности (full automation of labor). Очевидно, что даже с появлением AGI на создание человекоподобных роботов могут уйти дополнительные десятилетия. В том же опросе есть другой критерий, более похожий на AGI - high level machine intelligence. Там расклад такой (тоже для 50% вероятности):
опрос в 2016 - достигнет в 2061
опрос в 2022 - достигнет в 2060
опрос в 2023 - достигнет в 2047.

Последний опрос проводился в октябре 2023 - с тех пор было немало прорывных моделей и интересных исследований. Поэтому почти уверен, что в опросе этого года датировка сместится еще ближе к нашему времени. Причем это усредненный прогноз безотносительно научных заслуг его автора - есть и гораздо более смелые прогнозы от достаточно авторитетных людей. Тот же Джеффри Хинтон вангует сверхсильный ИИ (даже не AGI) через 5-20 лет (с 50% вероятностью). Пол Кристиано, один из со-авторов опубликованной в 2017 работы "Обучение с подкреплением на основе отзывов (RLHF)", предсказал создание AGI к 2030 с 15% вероятностью и к 2040 - с 40% вероятностью. Сэм Альтман допускает появление AGI уже через пять лет, ну а Илон Маск (предсказывавший полноценный автопилот к 2020 году) - и вовсе к концу следующего года. Соответственно те, кто не считают языковые модели дорогой к AGI (Ян Лекун, Демис Хассабис), подобные прогнозы наверняка оспорят.

-- 14.06.2024, 02:27 --

stalvoron в сообщении #1642516 писал(а):
Сильно сказано, потому что, не правда. Никакого разума человека, ни разума музыканта, ни разума скульптора, ни разума министра, ни разума кухарки, никто ещё не сделал в виде ИИ. ИИ - инструмент. Да, человеческому разуму дали очередной инструмент, что бы он, не имея возможности к рисованию, смог нарисовать, что он хочет с минимальными затратами и максимально по потребности. И так по всему,что может делать ИИ. Одним словом - "чего изволите-с ?"

С тем же успехом инструментом можно назвать человека. С функциональной точки зрения его богатый внутренний мир и тонкая душевная организация значения не имеют - он должен просто выполнять какую-то работу. Так вот современный ИИ часть этой работы уже способен выполнять - не как инструмент исполнителя, а как непосредственный исполнитель.

stalvoron в сообщении #1642516 писал(а):
С каких пор умение играть на балалайке делает Шарикова умнее Преображенского, который, увы, не умеет играть на балалайке?

Я такого не говорил - я сказал, что чат-боты уже умнее множества отдельно взятых людей. Умнее в том смысле, что они могут выполнять какие-то виды интеллектуальной работы, которые недоступны этим людям.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.06.2024, 09:59 


10/06/24

61
MoonWatcher
Все прогнозы относительно AGI имеют форму «А сказал, что AGI будет через N лет». Ну и что? По советским прогнозам мы уже строим города на Марсе. По прогнозам из 2000-х будем строить в 2025 г.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.06.2024, 10:35 


17/03/20
267
MoonWatcher в сообщении #1642587 писал(а):
не как инструмент исполнителя, а как непосредственный исполнитель.
. Ну что Вы? Это же какой ИИ сам создался, сам обучился, сам включился в задачу? Я сейчас,стуча по клавиатуре и печатая текст, в каком статусе - исполнитель просто, или непосредственный исполнитель? А клавиатура - инструмент или исполнитель непосредственный? "...Воля Ваша, но, что то Вы больно мудрёное придумали... "(с)
MoonWatcher в сообщении #1642587 писал(а):
С тем же успехом инструментом можно назвать человека.
. Вот именно, что нельзя назвать человека инструментом (в глобальном смысле), потому, что никто человека для "чего то" не создавал, а ИИ создавал человек, с определённой целью. ИИ инструмент , а человек ( или, если в Вашей трактовке, человечество) нет.
MoonWatcher в сообщении #1642587 писал(а):
Умнее в том смысле, что они могут выполнять какие-то виды интеллектуальной работы, которые недоступны этим людям.
Да и я про то, что Вы слово "умнее" зря употребили. " Интеллектуальность" - частный случай человеческих способностей. Я своим телом не могу гвоздь в дерево забить, а молоток может. Я не в состоянии решать ( быстро) задачи на оптимизацию раскроя листа под порезку, а ИИ в состоянии.В чём разница принципиальная? Так о "уме" ли разговор? Меня Ваш аргумент смутил . Не "умнее" чат- боты человека. "Обладают превосходящими возможностями", таки да . Как паровоз человека по массе и скорости. Кстати, выше говорили про роботов уборщиков с ИИ. И туда ещё интеллект сильнее человеческого надо? Правильно, не надо. Но интеллект, какой никакой, нужен и уборщику. Т.е, дело в масштабе способностей под конкретную задачу. Т.е., суть разный инструмент. Как то так.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.06.2024, 13:12 
Аватара пользователя


17/10/22
367
stalvoron в сообщении #1642618 писал(а):
Это же какой ИИ сам создался, сам обучился, сам включился в задачу?

По-вашему это ключевая разница между инструментом и исполнителем? Тогда и называть его надо "искусственная свобода воли, а не "искусственный интеллект". Кстати, интеллект во многих определениях - это и есть инструмент для решения разных задач: выживания, размножения и т.д. По мере совершенствования ИИ грань между ним как инструментом и исполнителем будет стираться: сначала вы будете поручать ему отдельные задачи, потом все более сложные, комплексные и долговременные. И в какой-то момент эта грань просто сотрется, и ИИ будет исполнителем не хуже любого человека на Земле. При том, что он и сейчас уже является (или может быть) исполнителем в каких-то отдельных профессиях, на которых можно работать посредством дистанционного общения (например, оператор кол-центра).

И поскольку нынешний бум ИИ начался благодаря языковым моделям, то интеллектуальные возможности, требующие визуального осмысления внешней среды, пока отстают. Но тоже быстро развиваются - что было продемонстрировано на презентациях Gemini Ultra и GHT-4o, где они достаточно качественно комментировали и даже прогнозировали трехмерную реальность. А умнее такой ИИ или "обладает превосходящими возможностями" - вопрос названия. Я бы сказал, что умнее - уборщик умнее физика, первобытный африканский охотник умнее калифорнийского профессора. Разумеется умнее не вообще (если уместно говорить об уме вообще), а умнее в своем деле - уборке кухни или охоте. И дело не просто в физически наработанных навыках - любой городской интеллектуал покажет себя непроходимым тупицей в выслеживании зверя, поиске пресной воды и т.д. Сейчас быстрее развивается форма [искусственного] интеллекта, которая считалась прерогативой интеллектуалов - творчество, программирование, решение математических задач и т.д. Как раньше быстрее развивалось умение перемножать большие числа и играть в шахматы. Но это вовсе не отменяет интеллектуальной составляющей в работе уборщика или повара. Нам они кажутся примитивными по причине эволюционного формирования такого интеллекта в нашей естественной среде обитания. Но объективно это не делает такой интеллект проще и примитивнее - таковым он является именно по нашим человеческим меркам.

-- 14.06.2024, 13:24 --

LOM в сообщении #1642612 писал(а):
Все прогнозы относительно AGI имеют форму «А сказал, что AGI будет через N лет». Ну и что? По советским прогнозам мы уже строим города на Марсе. По прогнозам из 2000-х будем строить в 2025 г.

Так никто и не претендует на то, что эти прогнозы непременно сбудутся. Я привел их в ответ на следующее замечание:
ozheredov в сообщении #1642509 писал(а):
По-хорошему надо провести мета-исследование разброса прогнозов на 2024-й год, от писсимистичных до оптимистичных - центрируется этот диапазон на текущем состоянии прогресса ИИ?

Для тех, кого интересует будущее, такие опросы очень любопытны. Как минимум они отражают ожидания своего времени - которые в немалой степени опираются на уровень развития технологий. Причем не удивлюсь, что если к 2100 году создадут AGI, то еще через тысячу лет как великого визионера славить будут Марвина Мински, который в 1970 предсказывал его не позднее 1978 года - по меркам тысячелетия разница в 122 года незначительна.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.06.2024, 20:11 


17/03/20
267
Уважаемый , MoonWatcher, поскольку Вы в своём посте легонько- легонько перефразировали некоторые свои высказывания, то я с Вами и соглашусь . Почти.
MoonWatcher в сообщении #1642654 писал(а):
Это же какой ИИ сам создался, сам обучился, сам включился в задачу?
По-вашему это ключевая разница между инструментом и исполнителем? Тогда и называть его надо "искусственная свобода воли, а не "искусственный интеллект".
. Тут этакое жонглирование словами. "Инструмент", "Исполнитель", "Непосредственный исполнитель". Это суть одно и тоже - то что делает. Молоток можно назвать "инструментом", можно "исполнителем забивания гвоздя", или в День Тезоименитства - " Непосредственным исполнителем забивания гвоздя". А следом, Вы упоминаете про какую то свободу. Я же понимал Вас так , что Вы утверждали, что
stalvoron в сообщении #1642516 писал(а):
MoonWatcher в сообщении #1642486
писал(а):
Между тем задача состоит в том, чтобы воспроизвести разум ОТДЕЛЬНО ВЗЯТОГО ЧЕЛОВЕКА. Вы не поверите, но это уже случилось, здесь и сейчас.
. Т.е ИИ уже здесь и сейчас , ну или вот - вот начнет обладать собственными побуждениями и мотивами и тогда конечно станет их непосредственным исполнителем. Ну как Моцарт. Про "искусственную свободу воли" вместо "ИИ" суждения не имею.
MoonWatcher в сообщении #1642654 писал(а):
По мере совершенствования ИИ грань между ним как инструментом и исполнителем будет стираться: сначала вы будете поручать ему отдельные задачи, потом все более сложные, комплексные и долговременные.
.
Опуская для ясности эти виражи "инструмент- исполнитель", как Вы себе представляете "сложные, комплексные и долговременные задачи" в работе людей не обремененных решением "задачи трёх тел" в профессиональной деятельности? Ах да! Вы про человечество . Но, ведь Вы, интерпретируя понятие "человеческого ума" справедливо объединили всех вместе, и калифорнийских профессоров, и жителей джунглей и поваров. И как это можно их ум заменить(приравнять,унизить и т.д.) ИИ !? Если каждый из вышеперечисленных в виде отдельного человека будет иметь и пользоваться своим ИИ - всё в порядке. Но каким должен быть ИИ (и зачем), что бы и швец, и жнец и на дуде игрец? Всеобъемлющим, мгновеннодействующим аналитикомфизикомскульпторомкомпозиторомбухгалтеромсиноптиком...Уф? Не возражаю против такого. Но это же ничего не поменяет. ИИ никогда не выйдет за пределы понятия "инструмент". Вот человек (теоретически) может пожелать и с помощью ИИ как инструмента, сделать много всякого, разного, особенно если "...кинжал хорош для того, у кого он есть, и плохо тому, у кого он не окажется в нужное время..."(с)

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение14.06.2024, 22:28 
Аватара пользователя


17/10/22
367
stalvoron
Никогда не говорите "никогда" - лет через десять, сто, да хоть тысячу, над этим вашим "никогда" потомки только посмеются (если, конечно, откопают черепки с этой дискуссией). Сложные, комплексные и долговременные задачи я выше описал, на примере:
MoonWatcher в сообщении #1641934 писал(а):
Вы ищите проблему там, где её нет - проблема не в мотивации ИИ, а в его интеллекте. Пока он туповат, перед ним поставят задачу, например, написать претензию по качеству полученного заводом сырья. Станет умнее - ему поручат добиться компенсации - и он САМ затеет переписку с поставщиком, подаст аппеляцию в арбитраж и т.д. Потому что всё это - опыт, на котором можно обучить.

Это - реальная перспектива даже на уровне нынешних технологий (в том смысле, что уже не звучит как фантастика, как еще несколько лет назад). Проблема выполнения такой работы упирается исключительно в интеллект - и я не вижу оснований считать достижение такого интеллекта невозможным в принципе. И пока не вижу никаких аргументов в пользу вашего утверждения, что ИИ никогда не выйдет за пределы понятия "инструмент". Те же специалисты, результаты опросов которых я выше цитировал, с 50% вероятностью прогнозируют вполне конкретный (и значит, с их точки зрения - реальный) временной лаг между ИИ-инструментом и ИИ-исполнителем: 2047 - инструмент, 2116 - исполнитель (69 лет). Собственно, разница между инструментом и исполнителем очень условная и упирается во всё тот же интеллект - в максимально широком его понимании (как нечто, выполняющее за человека [интеллектуальную] работу). Например, машинистки - они инструмент (которого заменил обычный принтер) или исполнители? Вопрос риторический. А компьютеры (люди, делавшие математические расчеты) - которых заменил сначала калькулятор, а потом их тезка компьютер? Это ложное противопоставление инструментов исполнителям обусловлено техническим прогрессом - людей-"исполнителей" полностью заменяют машины-"инструменты". Хотя и те, и другие делают одно и то же. Получается, что название определяется не тем, что делается, а тем, кто делает.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение15.06.2024, 11:08 


20/09/09
2044
Уфа
В вопросе об ИИ нужно ещё учитывать параметры "железа", на котором будет работать ИИ. Сейчас вроде бы нужно целое здание для работы ChatGPT, а закон Мура уже подошёл к своему пределу.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение15.06.2024, 13:35 


05/12/14
273
MoonWatcher в сообщении #1642486 писал(а):
Во-первых, приведите хоть один пример, где я выдаю желаемое за действительное.

Прямо в том же посте. Вы с третьей попытки так и не привели пример системы, которая может на данных из видео-архива научиться делать любую физическую работу. Вот сейчас дали ссылку на какое-то видео, но о любой физической работе там, естественно, и речи нет. Полагаю, вы и сами это понимаете, а значит, совершенно сознательно подменяете аргументы флудом. Зачем?

Или вот колл-центры. Только недавно обсуждали, что пока есть галлюцинации, непонятно, какие колл-центры такому ИИ подойдут. Это же должны быть какие-то ни к чему не обязывающие беседы, а есть ли такие колл-центры? Вроде нет. И всё равно вы пишете о применении ИИ в колл-центрах, как фактически уже о реальности. Или «открытия ИИ» — то вы утверждаете, что ИИ их делает, теперь оказывается, он только инструмент. И так, собственно, во всём, поэтому сложнее привести примеры, где вы желаемое за действительное не выдаёте, чем наоборот.

MoonWatcher в сообщении #1642486 писал(а):
С позицией Хинтона можете ознакомиться, например, здесь: "Думаю, что использование больших моделей и обучение их на мультимодальных данных, даже если это только для предсказания следующего слова, — настолько перспективный подход, что нам следует почти полностью сосредоточиться на этом."

Ниже слова, по-вашему, убеждённого сторонника текстов. Как из них следует, Хинтон, наоборот, начинает понимать, что текстов недостаточно. Потому что достаточность текстов он видит только в «философском» плане, то есть в принципе, вероятно, где-то там, вдали, может быть, их и достаточно, а так нет:
Цитата:
...Когда модель становится мультимодальной, если она одновременно обрабатывает зрение и выполняет действия, такие как хватание объектов, она будет лучше понимать объекты. Если модель может поднимать объекты и поворачивать их, она получит лучшее представление о них.

...Это улучшит её способность рассуждать о пространственных вещах — например, что произойдет, если поднять объект. Если модель сама поднимает объекты, она получает массу обучающих данных, которые помогают ей рассуждать.

...Хотя можно многому научиться из языка, обучаться легче с мультимодальной системой. На YouTube много видео, где можно предсказывать следующий кадр, что является полезным источником данных. Эти мультимодальные модели, безусловно, будут доминировать. Они могут получить больше данных и требуют меньше языковой информации.

...В философском плане можно создать хорошую модель только на основе языка, но мультимодальная система позволяет делать это гораздо проще.

Интервью Джеффри Хинтона: знакомство с Ильей Суцкевером, эмоции у роботов и понимание у больших языковых моделей

Возможно, что эти мысли о недостаточности текстов есть первый шаг Хинтона от текстового фанатизма к осознанию очевидной реальности. Реальность состоит в том, что слова, тексты сами по себе никакого смысла не имеют. Это просто закорючки. Поэтому какую статистику в сочетаниях слов в текстах ни найди, её смысл тоже будет равен нулю. Она будет вещью в себе, просто статистика сочетания закорючек. Смысл же слова приобретают только в контексте нашего опыта, сообразно которому мы и расставляем слова в текстах. И статистика, выявленная в сочетаниях слов, тоже приобретает смысл в контексте нашего опыта — её суть в том, что она пытается выразить этот опыт в статистических закономерностях сочетаний слов. По внешним признакам, так сказать. Поэтому, когда ИИ отвечает на вопрос, кажется, что ответ даёт человек, имеющий соответствующий опыт, так как ИИ, обучаясь на текстах человека, приближается к человеческому опыту. Но статистика не точна, как и любая статистика, и от этого у ИИ галлюцинации. Вопрос со статистикой закрыт.

Осталось узнать только, насколько статистика может быть точна? Если очень точна, то, действительно, по крайней мере «в философском плане можно создать хорошую модель только на основе языка». Вопрос точности статистики сводится к вопросу, насколько полно можно выразить наш опыт словами. Если в нашем опыте можно выразить словам всё, то статистику можно бесконечно близко приближать к сложности нашего опыта — и тогда в гипотетическом «философском» итоге мы получим не только специалиста во всех областях знаний человека, но вообще человека во всех смыслах.

Ответить на этот вопрос несложно. Приведу уже более или менее знакомые вам аргументы.

Теория всего равносильна непротиворечивому описанию всего мыслимого. Ни меньше, ни больше. При этом богатство всего мыслимого суть выражение сложности поведения субъекта. Поэтому поймали какого-нибудь субъекта, описали его интеллект, сложность которого и заключает в себя всё им мыслимое, — и вот вам теория всего. Однако теория всего не имеет смысла, то есть она недостижима не на практике, а в принципе.

А это, в свою очередь, означает, что разница между описанием и тем, что описывается, будет всегда качественная. Например, поэтому не стоит ожидать, что по мере уточнения наших представлений о природе теории будут становиться самой реальностью во плоти. Проще говоря, знания всегда будут качественно не тем объектом, который они описывают. Образ стула в голове — это не сам стул, описание стула никогда самим стулом не станет. Алгоритм явления — не явление, карта не станет территорией, как точно ни рисуй. Таким образом, любое описание — это качественное упрощение описываемого явления, а не просто упрощение.

При этом теория всего равносильна описанию элементарного уровня материи. Таким образом, описание субъекта равносильно описанию элементарного уровня материи. А так как теория всего не имеет смысла, то, следовательно, элементарный уровень материи нельзя описать, нельзя выразить каким-либо языком. Действительно, всё мыслимое состоит из квалиа, но квалиа невыразима никаким языком. Всё сходится. Квалиа — это и есть элементарный уровень материи, материя как она есть, она вот именно такая (то есть cознание — это материя мозга «изнутри»). А квалиа — это всё содержание сознания, от самоощущения до эмоций и образов. В итоге выразить словами опыт субъекта невозможно в принципе, описание опыта возможно только с качественным упрощением. Иными словами, это невозможно даже в «философском плане».

Теперь вспомните предыдущий пост, там показано, что субъекта нельзя упростить до какого-либо описания, так как это приведёт к утрате адекватности поведения среде. Нынешние аргументы подтверждают, что адекватность среде утратится качественно. Но качественно упрощённый гомеостаз — не гомеостаз, поэтому он станет невозможным, а именно гомеостаз суть точка отсчёта для определения верного и неверного — то знание верно, которое способно повышать качество жизни, а качество жизни повышать может только то знание, которое адекватно среде, так как мы существуем только в интенсивном обмене веществом/энергией со средой. Ну, и теперь посмотрите, что в том посте было написано «в итоге».

Опять вернёмся к Хинтону. Почему мысли Хинтона про недостаточность текстов — это только первый шаг к осознанию им реальности? Потому что пока это всё находится на уровне смутных идей, ведь «философскую», то есть принципиальную, возможность описать опыт словами Хинтон всё-таки предполагает. Об этом же говорят его фантазии «о понимании» — в отличие от Яна Лекуна, Хинтон полагает, что ИНС ощущают, испытывают эмоции — как человек или около того. То есть, по мнению Хинтона, выразить квалиа в алгоритме всё-таки можно, никаких принципиальных препятствий он не видит.

Вот цитаты с его заблуждениями из того же интервью:
Цитата:
...Я думаю, что исследователям надо срочно прийти к консенсусу по вопросу понимают ли эти большие чат-боты, такие как GPT-4 или Bard, что они говорят. Очевидно, некоторые люди верят, что они понимают, а другие считают, что они просто стохастические попугаи. Пока у нас есть эти различия, мы не сможем прийти к консенсусу по вопросам опасности. Да, я думаю, что это срочно для исследовательского сообщества – разобраться, понимают они или нет. Оба мы считаем, что они понимают, но люди, которых мы уважаем, например Ян Лекун, думают, что они не понимают. Это важный вопрос, который нужно разрешить, и мы, возможно, не сможем прийти к консенсусу по другим вопросам, пока не решим этот.

...Да, я думаю, что эти модели могут иметь чувства. Так же, как у нас есть внутренняя театральная модель восприятия, у нас есть аналогичная модель для чувств. Это концепция внутреннего театра, которая предполагает, что чувства — это то, что мы испытываем лично. Однако я считаю, что эта модель несколько ошибочна. Например, когда я говорю «Мне хочется ударить Гари по носу», что я действительно выражаю — это потенциальное действие, которое я бы совершил, если бы не было тормозящих сигналов от моих лобных долей. Чувства можно рассматривать как действия, которые мы бы совершили, если бы не было ограничений. Поэтому я думаю, что можно дать такое же объяснение чувствам, и нет причин, почему эти системы не могут иметь чувства.

...На самом деле, в 1973 году я видел робота, испытывающего эмоции. В Эдинбурге был робот с двумя захватами, который мог собирать игрушечную машину, если детали лежали отдельно на куске зеленого фетра. Но если положить их в кучу, его зрение не было достаточно хорошим, чтобы понять, что происходит. Тогда он складывал захваты вместе и ударял по ним, чтобы они разлетелись, и тогда он мог их собрать. Если бы вы увидели это у человека, вы бы сказали, что он рассердился на ситуацию, потому что не понял её, и поэтому разрушил её.
В общем, судя по всему, индустрию ИИ ждут перемены.

MoonWatcher в сообщении #1642486 писал(а):
Абсолютное большинство людей живет в плену у заблуждений, и им от этого ни холодно, ни голодно.

Все живут в плену заблуждений. Потому что теория всего не имеет смысла. Но при этом абсолютное большинство людей адекватно окружающим их условиям. Потому что нормальный человек постоянно обучается, то есть постоянно корректирует свои взгляды. Что будет с ИИ, если он тоже будет постоянно обучаться, я уже вам объяснял. Что будет, если не будет, тоже.

MoonWatcher в сообщении #1642486 писал(а):
Человечество как вид - да, оно развивается. Но развивается через интеллектуальные элиты, которые, преодолевая костры инквизиции и остракизм сограждан, тянут за собой человечество.

Кто элитам деньги даёт на исследования? И наконец вы сами к кому себя причисляете в этом надуманном противостоянии элит и сограждан? Вот вы флудите, маргиналом меня называете, все признаки мощнейшего остракизма налицо. Это значит, я элита? Или наоборот, вы элита? Как это понять? Как согражданам определить, где элита, которая к добру, а где кандидат на костёр, который пытается сбить с пути верного, проторенного прошлой элитой?

MoonWatcher в сообщении #1642486 писал(а):
Что касается виртуальной реальности, то она упрощает отдельно взятую действительность - но при этом может охватить их огромное множество, за пределами опыта отдельно взятого человека.

См. предыдущий пост — упрощение на упрощении и так далее.

MoonWatcher в сообщении #1642486 писал(а):
Превзойдет, причем многократно - поскольку может охватить огромное множество ситуаций за пределами жизненного опыта отдельно взятого человека.

Так как оценивать поведение ИИ будет человек, то и сложность человека ИИ не превзойдёт. А больше оценивать некому. Почему не превзойдёт, см. начало нынешнего обсуждения - по мере приближения сложности поведения ИИ к сложности поведения человека время каждого нового усложнения ИИ будет всё стремительнее расти к бесконечности. А также, см. выше про невыразимость мышления никаким языком.

MoonWatcher в сообщении #1642486 писал(а):
По аналогии с игрой го, разыграв множество партий AlphaGo научилась делать интуитивно понятные ей (но непонятные специалистам) ходы, которые оказывались правильными.

Превосходство над человеком столь простой по сравнению с мышлением системы возможно потому, что для AlphaGo игра — это весь доступный ей мир, а обучение — процесс адаптации к этому миру. Однако человек адаптируется совсем к другому миру, поэтому несравнимо более простая система может превосходить человека в способности адаптироваться к некоторым частным составляющим его мира. Иными словами, за счёт качественно более высокой сложности и богатого опыта человек способен наблюдать всю ситуацию со стороны, включив её в свой опыт, и потому создать и игру, и AlphaGo. Которая затем сможет выявить в игре некоторые частные закономерности, не замеченные человеком, и в результате сможет обыграть человека, оставаясь при этом много его проще — а сам человек сможет понять, что его обыграли, потому что для AlphaGo таких понятий не существует.

То же с любым ИИ. Он существует «внутри» нашего опыта, так как без нас не выживет, потому что его связь со средой качественно более простая, чем у нас, а адекватность знаний оценивается прежде всего по отношению к реальности. Поэтому на практике получится или создать систему, работа которой будет повторять возможности человека в целом, но воспроизведённые на очень простом уровне, или систему, которая будет, возможно, и превосходить человека, но лишь на уровне частных элементов его опыта.

MoonWatcher в сообщении #1642486 писал(а):
Тексты писало человечество - и постепенно приобщалось новыми текстами людей, часть которых извлекала из этих текстов новые закономерности.

Знания есть только в головах людей. Больше его нигде нет. В книгах лишь закорючки. Поэтому пишет тексты только сам человек, один, осмысляя мир в преломлении своего опыта, врождённого и приобретённого. Где я здесь человечество пропустил, которое чего-то там пишет, по-вашему?

MoonWatcher в сообщении #1642486 писал(а):
Ньютон - это инструмент извлечения закономерностей из текстов - без них он, простите, никто и звать его никак.

Тексты откуда берутся? Свыше нам даны? Вы понимаете, что в этой своей любви к СИИ вы уже до откровенной чуши докатились? Текстов, которые уже есть, для описания мира может быть достаточно, только если создана теория всего. Знай себе выводи из описанных в ней первооснов. Но такая теория не имеет смысла.

MoonWatcher в сообщении #1642486 писал(а):
Не надо искажать смысл моих слов - я сказал, что НА РАБОТЕ не у всех людей есть стремление к самосохранения.

Это ж как надо работу любить, чтоб инстинкт самосохранения на ней утрачивать. Редко, кто так может. Собственно, никто. Читайте про гомеостаз, который в основании и так далее, всё с самого начала.

MoonWatcher в сообщении #1642486 писал(а):
На всякий случай еще раз поясню: на бумажке можно расписать общий механизм принятия решений ИИ - как на таком уже уровне абстрагирования можно расписать общий механизм принятия решений человека.

В ИИ всё можно описать. Весь ход вычислений. Он инструкция — как из входа получить выход. Ничего неописуемого в нём не может быть в принципе.

MoonWatcher в сообщении #1642486 писал(а):
Остановился, читайте еще раз: контекст можно реализовать объективно - в отличие от субъективного квалиа (набора внутренних ощущений). Контекст в данном случае - это как раз то, что можно описать словами.

Если контекст можно описать объективно и адекватно человеческой сложности (а речь именно об этом), то это равносильно тому, что мышление человека можно описать, а квалиа при этом не опишется. Ведь квалиа языком невыразима. Но тогда, получается, что наши ощущения сложнее мышления. А это глупость. Следовательно, на самом деле мыслит не мозг или не только мозг, и «настоящее» мышление где-то от нас скрыто и языком невыразимо. В итоге невозможность выразить словами квалиа в любом случае означает невозможность выразить словами мышление. Поэтому всё решается проще — см. начало поста.

MoonWatcher в сообщении #1642486 писал(а):
Сверточной ИНС дали посмотреть миллион изображений с котиками, после обучения на которых ей уже не "нужно знать, какой результат правильный" - она уже обучилась.

Вы писали об моделировании эволюции и случайных поправках, которые вносит в систему ИИ-агент. Вы, видимо, полагали, что эволюция - это случайный перебор всех сочетаний молекул, а значит, и модель эволюции тоже случайным перебором должна быть. Я вам ответил - устанете ждать. И при этом в любом случае система не выйдет за рамки того, что мы можем оценить. О чём вы пишете сейчас?

MoonWatcher в сообщении #1642486 писал(а):
Что значит "свобода воли не может иметь никакого выражения в языке"?

В посте, где про свободу воли, об этом написано, прочитайте наконец целиком.

MoonWatcher в сообщении #1642486 писал(а):
По-вашему компании вкладывают в масштабирование ИИ сотни миллиардов долларов без всяких аргументов? А вышеупомянутые Хинтон и Суцкевер просто меряются силой веры?

Во-первых, смотри про заблуждения в начале поста. Если неизвестны аргументы против, то почему бы не вкладывать? Потом, вкладывают в масштабирование, но прямо завтра СИИ никто не обещает. А там или ишак, или падишах. И наконец кому от этого вред? Наоборот, только польза. Наука двигается, люди при деле, многие счастливы, ждут СИИ-мессию. К тому же мультимодальность, роботы — в любом случае пригодится. Поэтому пусть не СИИ, но много полезного может появиться на бесконечном пути к нему.

MoonWatcher в сообщении #1642486 писал(а):
Потому что чат-боты уже умнее множества отдельно взятых людей, которые не умеют программировать, понимать юмор, сочинять стихи или музыку, писать картины, решать задачи по разным дисциплинам, проходит собеседование и т.д.

С чего бы вы взяли, что чат-боты умнее отдельных людей? Просто эти люди обучены другому. Если им нужна программа, они обратятся к программисту. Этак у вас калькулятор умнее всех вообще будет. Никто так быстро не посчитает, а уж корни и вообще не каждый знает, что такое. Я уже вам объяснял, мы знаем меньше текстов, но те, что знаем, понимаем глубже. И тем, что можно описать, наш опыт не исчерпывается — см. начало поста. Опыт человека реализован не столько в текстах, сколько в том, как их добывать — как исследовать мир, осмыслять его себе на благо и преобразовывать в слова, чтобы знания можно было хранить и передавать. ИИ на это не способен — у него нет гомеостаза, как критерия, на основании которого можно отделять истинное от ложного.

MoonWatcher в сообщении #1642486 писал(а):
В моем понимании куда плодотворнее и интереснее обсуждать возможные подходы к созданию СИИ, а не ставить на нем философский крест.

СИИ — фантастика, причём антиутопия. Странно стремиться к самоубийству всего человечества и обсуждать, как половчее это сделать.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение15.06.2024, 16:20 


17/03/20
267
MoonWatcher в сообщении #1642749 писал(а):
Никогда не говорите "никогда" - лет через десять, сто, да хоть тысячу, над этим вашим "никогда" потомки только посмеютс
. А это уже двойные стандарты во всей красе. Вы значит прогнозируете, а мне нельзя? Притом, что у Вас, то "сегодня и сейчас", то когда нибудь. Если создадут ИИ не "инструмент", а "инициатора", уверяю, надо мной не посмеётся никто, смеяться будет некому и мгновенно. Да и если, ИИ, как "инструмент", кто нибудь применит слегка не рассчитав, то тоже, может быть некому. Тот кто изобретает противопехотный мины, тоже хочет, что бы всё было хорошо. ИИ в этом плане не отличается от всех других "инструментов". Смеяться можно над всем чем угодно, если есть кому.
MoonWatcher в сообщении #1642749 писал(а):
Те же специалисты, результаты опросов которых я выше цитировал, с 50%
. Что мне специалисты с такой низкой вероятностью? Да ещё на такой временной период. А Вы утверждаете, что над моим прогнозом будут смеяться. Мой прогноз 100 % ный.
MoonWatcher в сообщении #1642749 писал(а):
Например, машинистки - они инструмент (которого заменил обычный принтер) или исполнители? Вопрос риторический.
. Не согласен. В аспекте нашего диалога, не риторический. Машинистку принтер не заменил категорически, или Вы никогда не работали с машинисткой. Я работал. И с принтером работал. В упор их нельзя по функционалу отождествлять (опять Ваше "скользкое" "инструмент- исполнитель". Не надо). И машинистки никуда не исчезли, их переименовали весёлые ребята- менеджеры по кадрам. Принтер это симбиоз пишущей машинки и копира. Инструмент. Всего лишь. Толковая машинистка - референт, корректор , оператор пишущей машинки и собеседник, а иногда, генератор творческих идей, т.е. инициатор исполнения. Пусть редко, а принтер никогда. Ваш пример не удачен.
MoonWatcher в сообщении #1642749 писал(а):
люди, делавшие математические расчеты)
Вы игнорируете, что эти люди не просто делали расчеты, а ещё и имели к этому мотивы т.е. были инициаторами (монастырских служек - писчиков я уважаю, но в расчёт не беру. Я про Математиков). Считали они инструментами, сами инструментами не будучи. И это критическая разница.
MoonWatcher в сообщении #1642749 писал(а):
Хотя и те, и другие делают одно и то же. Получается, что название определяется не тем, что делается, а тем, кто делает.
. Нет не делает пока ИИ того же, что и человек при решении интеллектуальной задачи. С количественной стороны люди (коль вы выбрали эту область, практически никогда не считали в "уме". т.е. без второй природы, пальцы, горошинки, ракушки, логарифмическая линейка, астролябия, О-о-о! калькулятор). Ну теперь ИИ! Просто количественно задачи были соответствующего уровня . Не делал Мендель расшифровку генома. А с качественной стороны, надо было Архимеду царю потрафить - нате вам решение интеллектуальной задачи. И без ИИ. А ИИ если его не пнуть, и за ухом не почешется. Если пнуть, то да, как разойдется. Инструментище же.
MoonWatcher в сообщении #1642749 писал(а):
Получается, что название определяется не тем, что делается, а тем, кто делает.
. Полностью согласен, абсолютно !!!. Название"инструмент" определяется не тем, что забивает гвоздь, просчитывает комбинации в Го, вычисляет оптимальное целеупреждение, а тем, что "Оно" делает. Наконец то мы нашли что такое ИИ.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 349 ]  На страницу Пред.  1 ... 19, 20, 21, 22, 23, 24  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group