Во-первых, приведите хоть один пример, где я выдаю желаемое за действительное.
Прямо в том же посте. Вы с третьей попытки так и не привели пример системы, которая может на данных из видео-архива научиться делать любую физическую работу. Вот сейчас дали ссылку на какое-то видео, но о любой физической работе там, естественно, и речи нет. Полагаю, вы и сами это понимаете, а значит, совершенно сознательно подменяете аргументы флудом. Зачем?
Или вот колл-центры. Только недавно обсуждали, что пока есть галлюцинации, непонятно, какие колл-центры такому ИИ подойдут. Это же должны быть какие-то ни к чему не обязывающие беседы, а есть ли такие колл-центры? Вроде нет. И всё равно вы пишете о применении ИИ в колл-центрах, как фактически уже о реальности. Или «открытия ИИ» — то вы утверждаете, что ИИ их делает, теперь оказывается, он только инструмент. И так, собственно, во всём, поэтому сложнее привести примеры, где вы желаемое за действительное не выдаёте, чем наоборот.
С позицией Хинтона можете ознакомиться, например, здесь: "Думаю, что использование больших моделей и обучение их на мультимодальных данных, даже если это только для предсказания следующего слова, — настолько перспективный подход, что нам следует почти полностью сосредоточиться на этом."
Ниже слова, по-вашему, убеждённого сторонника текстов. Как из них следует, Хинтон, наоборот, начинает понимать, что текстов недостаточно. Потому что достаточность текстов он видит только в «философском» плане, то есть в принципе, вероятно, где-то там, вдали, может быть, их и достаточно, а так нет:
Цитата:
...Когда модель становится мультимодальной, если она одновременно обрабатывает зрение и выполняет действия, такие как хватание объектов, она будет лучше понимать объекты. Если модель может поднимать объекты и поворачивать их, она получит лучшее представление о них.
...Это улучшит её способность рассуждать о пространственных вещах — например, что произойдет, если поднять объект. Если модель сама поднимает объекты, она получает массу обучающих данных, которые помогают ей рассуждать.
...Хотя можно многому научиться из языка, обучаться легче с мультимодальной системой. На YouTube много видео, где можно предсказывать следующий кадр, что является полезным источником данных. Эти мультимодальные модели, безусловно, будут доминировать. Они могут получить больше данных и требуют меньше языковой информации.
...В
философском плане можно создать хорошую модель только на основе языка, но мультимодальная система позволяет делать это гораздо проще.
Интервью Джеффри Хинтона: знакомство с Ильей Суцкевером, эмоции у роботов и понимание у больших языковых моделейВозможно, что эти мысли о недостаточности текстов есть первый шаг Хинтона от текстового фанатизма к осознанию очевидной реальности. Реальность состоит в том, что слова, тексты сами по себе никакого смысла не имеют. Это просто закорючки. Поэтому какую статистику в сочетаниях слов в текстах ни найди, её смысл тоже будет равен нулю. Она будет вещью в себе, просто статистика сочетания закорючек. Смысл же слова приобретают только в контексте нашего опыта, сообразно которому мы и расставляем слова в текстах. И статистика, выявленная в сочетаниях слов, тоже приобретает смысл в контексте нашего опыта — её суть в том, что она пытается выразить этот опыт в статистических закономерностях сочетаний слов. По внешним признакам, так сказать. Поэтому, когда ИИ отвечает на вопрос, кажется, что ответ даёт человек, имеющий соответствующий опыт, так как ИИ, обучаясь на текстах человека, приближается к человеческому опыту. Но статистика не точна, как и любая статистика, и от этого у ИИ галлюцинации. Вопрос со статистикой закрыт.
Осталось узнать только, насколько статистика может быть точна? Если очень точна, то, действительно, по крайней мере «в философском плане можно создать хорошую модель только на основе языка». Вопрос точности статистики сводится к вопросу, насколько полно можно выразить наш опыт словами. Если в нашем опыте можно выразить словам всё, то статистику можно бесконечно близко приближать к сложности нашего опыта — и тогда в гипотетическом «философском» итоге мы получим не только специалиста во всех областях знаний человека, но вообще человека во всех смыслах.
Ответить на этот вопрос несложно. Приведу уже более или менее знакомые вам аргументы.
Теория всего равносильна непротиворечивому описанию всего мыслимого. Ни меньше, ни больше. При этом богатство всего мыслимого суть выражение сложности поведения субъекта. Поэтому поймали какого-нибудь субъекта, описали его интеллект, сложность которого и заключает в себя всё им мыслимое, — и вот вам теория всего. Однако теория всего не имеет смысла, то есть она недостижима не на практике, а в принципе.
А это, в свою очередь, означает, что разница между описанием и тем, что описывается, будет всегда качественная. Например, поэтому не стоит ожидать, что по мере уточнения наших представлений о природе теории будут становиться самой реальностью во плоти. Проще говоря, знания всегда будут качественно не тем объектом, который они описывают. Образ стула в голове — это не сам стул, описание стула никогда самим стулом не станет. Алгоритм явления — не явление, карта не станет территорией, как точно ни рисуй. Таким образом, любое описание — это качественное упрощение описываемого явления, а не просто упрощение.
При этом теория всего равносильна описанию элементарного уровня материи. Таким образом, описание субъекта равносильно описанию элементарного уровня материи. А так как теория всего не имеет смысла, то, следовательно, элементарный уровень материи нельзя описать, нельзя выразить каким-либо языком. Действительно, всё мыслимое состоит из квалиа, но квалиа невыразима никаким языком. Всё сходится. Квалиа — это и есть элементарный уровень материи, материя как она есть, она вот именно такая (то есть cознание — это материя мозга «изнутри»). А квалиа — это всё содержание сознания, от самоощущения до эмоций и образов. В итоге выразить словами опыт субъекта невозможно в принципе, описание опыта возможно только с качественным упрощением. Иными словами, это невозможно даже в «философском плане».
Теперь вспомните предыдущий пост, там показано, что субъекта нельзя упростить до какого-либо описания, так как это приведёт к утрате адекватности поведения среде. Нынешние аргументы подтверждают, что адекватность среде утратится качественно. Но качественно упрощённый гомеостаз — не гомеостаз, поэтому он станет невозможным, а именно гомеостаз суть точка отсчёта для определения верного и неверного — то знание верно, которое способно повышать качество жизни, а качество жизни повышать может только то знание, которое адекватно среде, так как мы существуем только в интенсивном обмене веществом/энергией со средой. Ну, и теперь посмотрите, что в том посте было написано «в итоге».
Опять вернёмся к Хинтону. Почему мысли Хинтона про недостаточность текстов — это только первый шаг к осознанию им реальности? Потому что пока это всё находится на уровне смутных идей, ведь «философскую», то есть принципиальную, возможность описать опыт словами Хинтон всё-таки предполагает. Об этом же говорят его фантазии «о понимании» — в отличие от Яна Лекуна, Хинтон полагает, что ИНС ощущают, испытывают эмоции — как человек или около того. То есть, по мнению Хинтона, выразить квалиа в алгоритме всё-таки можно, никаких принципиальных препятствий он не видит.
Вот цитаты с его заблуждениями из того же интервью:
Цитата:
...Я думаю, что исследователям надо срочно прийти к консенсусу по вопросу понимают ли эти большие чат-боты, такие как GPT-4 или Bard, что они говорят. Очевидно, некоторые люди верят, что они понимают, а другие считают, что они просто стохастические попугаи. Пока у нас есть эти различия, мы не сможем прийти к консенсусу по вопросам опасности. Да, я думаю, что это срочно для исследовательского сообщества – разобраться, понимают они или нет. Оба мы считаем, что они понимают, но люди, которых мы уважаем, например Ян Лекун, думают, что они не понимают. Это важный вопрос, который нужно разрешить, и мы, возможно, не сможем прийти к консенсусу по другим вопросам, пока не решим этот.
...Да, я думаю, что эти модели могут иметь чувства. Так же, как у нас есть внутренняя театральная модель восприятия, у нас есть аналогичная модель для чувств. Это концепция внутреннего театра, которая предполагает, что чувства — это то, что мы испытываем лично. Однако я считаю, что эта модель несколько ошибочна. Например, когда я говорю «Мне хочется ударить Гари по носу», что я действительно выражаю — это потенциальное действие, которое я бы совершил, если бы не было тормозящих сигналов от моих лобных долей. Чувства можно рассматривать как действия, которые мы бы совершили, если бы не было ограничений. Поэтому я думаю, что можно дать такое же объяснение чувствам, и нет причин, почему эти системы не могут иметь чувства.
...На самом деле, в 1973 году я видел робота, испытывающего эмоции. В Эдинбурге был робот с двумя захватами, который мог собирать игрушечную машину, если детали лежали отдельно на куске зеленого фетра. Но если положить их в кучу, его зрение не было достаточно хорошим, чтобы понять, что происходит. Тогда он складывал захваты вместе и ударял по ним, чтобы они разлетелись, и тогда он мог их собрать. Если бы вы увидели это у человека, вы бы сказали, что он рассердился на ситуацию, потому что не понял её, и поэтому разрушил её.
В общем, судя по всему, индустрию ИИ ждут перемены.
Абсолютное большинство людей живет в плену у заблуждений, и им от этого ни холодно, ни голодно.
Все живут в плену заблуждений. Потому что теория всего не имеет смысла. Но при этом абсолютное большинство людей адекватно окружающим их условиям. Потому что нормальный человек постоянно обучается, то есть постоянно корректирует свои взгляды. Что будет с ИИ, если он тоже будет постоянно обучаться, я уже вам объяснял. Что будет, если не будет, тоже.
Человечество как вид - да, оно развивается. Но развивается через интеллектуальные элиты, которые, преодолевая костры инквизиции и остракизм сограждан, тянут за собой человечество.
Кто элитам деньги даёт на исследования? И наконец вы сами к кому себя причисляете в этом надуманном противостоянии элит и сограждан? Вот вы флудите, маргиналом меня называете, все признаки мощнейшего остракизма налицо. Это значит, я элита? Или наоборот, вы элита? Как это понять? Как согражданам определить, где элита, которая к добру, а где кандидат на костёр, который пытается сбить с пути верного, проторенного прошлой элитой?
Что касается виртуальной реальности, то она упрощает отдельно взятую действительность - но при этом может охватить их огромное множество, за пределами опыта отдельно взятого человека.
См. предыдущий пост — упрощение на упрощении и так далее.
Превзойдет, причем многократно - поскольку может охватить огромное множество ситуаций за пределами жизненного опыта отдельно взятого человека.
Так как оценивать поведение ИИ будет человек, то и сложность человека ИИ не превзойдёт. А больше оценивать некому. Почему не превзойдёт, см. начало нынешнего обсуждения - по мере приближения сложности поведения ИИ к сложности поведения человека время каждого нового усложнения ИИ будет всё стремительнее расти к бесконечности. А также, см. выше про невыразимость мышления никаким языком.
По аналогии с игрой го, разыграв множество партий AlphaGo научилась делать интуитивно понятные ей (но непонятные специалистам) ходы, которые оказывались правильными.
Превосходство над человеком столь простой по сравнению с мышлением системы возможно потому, что для AlphaGo игра — это весь доступный ей мир, а обучение — процесс адаптации к этому миру. Однако человек адаптируется совсем к другому миру, поэтому несравнимо более простая система может превосходить человека в способности адаптироваться к некоторым частным составляющим его мира. Иными словами, за счёт качественно более высокой сложности и богатого опыта человек способен наблюдать всю ситуацию со стороны, включив её в свой опыт, и потому создать и игру, и AlphaGo. Которая затем сможет выявить в игре некоторые частные закономерности, не замеченные человеком, и в результате сможет обыграть человека, оставаясь при этом много его проще — а сам человек сможет понять, что его обыграли, потому что для AlphaGo таких понятий не существует.
То же с любым ИИ. Он существует «внутри» нашего опыта, так как без нас не выживет, потому что его связь со средой качественно более простая, чем у нас, а адекватность знаний оценивается прежде всего по отношению к реальности. Поэтому на практике получится или создать систему, работа которой будет повторять возможности человека в целом, но воспроизведённые на очень простом уровне, или систему, которая будет, возможно, и превосходить человека, но лишь на уровне частных элементов его опыта.
Тексты писало человечество - и постепенно приобщалось новыми текстами людей, часть которых извлекала из этих текстов новые закономерности.
Знания есть только в головах людей. Больше его нигде нет. В книгах лишь закорючки. Поэтому пишет тексты только сам человек, один, осмысляя мир в преломлении своего опыта, врождённого и приобретённого. Где я здесь человечество пропустил, которое чего-то там пишет, по-вашему?
Ньютон - это инструмент извлечения закономерностей из текстов - без них он, простите, никто и звать его никак.
Тексты откуда берутся? Свыше нам даны? Вы понимаете, что в этой своей любви к СИИ вы уже до откровенной чуши докатились? Текстов, которые уже есть, для описания мира может быть достаточно, только если создана теория всего. Знай себе выводи из описанных в ней первооснов. Но такая теория не имеет смысла.
Не надо искажать смысл моих слов - я сказал, что НА РАБОТЕ не у всех людей есть стремление к самосохранения.
Это ж как надо работу любить, чтоб инстинкт самосохранения на ней утрачивать. Редко, кто так может. Собственно, никто. Читайте про гомеостаз, который в основании и так далее, всё с самого начала.
На всякий случай еще раз поясню: на бумажке можно расписать общий механизм принятия решений ИИ - как на таком уже уровне абстрагирования можно расписать общий механизм принятия решений человека.
В ИИ всё можно описать. Весь ход вычислений. Он инструкция — как из входа получить выход. Ничего неописуемого в нём не может быть в принципе.
Остановился, читайте еще раз: контекст можно реализовать объективно - в отличие от субъективного квалиа (набора внутренних ощущений). Контекст в данном случае - это как раз то, что можно описать словами.
Если контекст можно описать объективно и адекватно человеческой сложности (а речь именно об этом), то это равносильно тому, что мышление человека можно описать, а квалиа при этом не опишется. Ведь квалиа языком невыразима. Но тогда, получается, что наши ощущения сложнее мышления. А это глупость. Следовательно, на самом деле мыслит не мозг или не только мозг, и «настоящее» мышление где-то от нас скрыто и языком невыразимо. В итоге невозможность выразить словами квалиа в любом случае означает невозможность выразить словами мышление. Поэтому всё решается проще — см. начало поста.
Сверточной ИНС дали посмотреть миллион изображений с котиками, после обучения на которых ей уже не "нужно знать, какой результат правильный" - она уже обучилась.
Вы писали об моделировании эволюции и случайных поправках, которые вносит в систему ИИ-агент. Вы, видимо, полагали, что эволюция - это случайный перебор всех сочетаний молекул, а значит, и модель эволюции тоже случайным перебором должна быть. Я вам ответил - устанете ждать. И при этом в любом случае система не выйдет за рамки того, что мы можем оценить. О чём вы пишете сейчас?
Что значит "свобода воли не может иметь никакого выражения в языке"?
В посте, где про
свободу воли, об этом написано, прочитайте наконец целиком.
По-вашему компании вкладывают в масштабирование ИИ сотни миллиардов долларов без всяких аргументов? А вышеупомянутые Хинтон и Суцкевер просто меряются силой веры?
Во-первых, смотри про заблуждения в начале поста. Если неизвестны аргументы против, то почему бы не вкладывать? Потом, вкладывают в масштабирование, но прямо завтра СИИ никто не обещает. А там или ишак, или падишах. И наконец кому от этого вред? Наоборот, только польза. Наука двигается, люди при деле, многие счастливы, ждут СИИ-мессию. К тому же мультимодальность, роботы — в любом случае пригодится. Поэтому пусть не СИИ, но много полезного может появиться на бесконечном пути к нему.
Потому что чат-боты уже умнее множества отдельно взятых людей, которые не умеют программировать, понимать юмор, сочинять стихи или музыку, писать картины, решать задачи по разным дисциплинам, проходит собеседование и т.д.
С чего бы вы взяли, что чат-боты умнее отдельных людей? Просто эти люди обучены другому. Если им нужна программа, они обратятся к программисту. Этак у вас калькулятор умнее всех вообще будет. Никто так быстро не посчитает, а уж корни и вообще не каждый знает, что такое. Я уже вам объяснял, мы знаем меньше текстов, но те, что знаем, понимаем глубже. И тем, что можно описать, наш опыт не исчерпывается — см. начало поста. Опыт человека реализован не столько в текстах, сколько в том, как их добывать — как исследовать мир, осмыслять его себе на благо и преобразовывать в слова, чтобы знания можно было хранить и передавать. ИИ на это не способен — у него нет гомеостаза, как критерия, на основании которого можно отделять истинное от ложного.
В моем понимании куда плодотворнее и интереснее обсуждать возможные подходы к созданию СИИ, а не ставить на нем философский крест.
СИИ — фантастика, причём антиутопия. Странно стремиться к самоубийству всего человечества и обсуждать, как половчее это сделать.