И мы прощаем вам это.
А чего это вы лицо рукой прикрыли? Стыдно такое писать? Вот то-то и оно. Себя не обманешь. Нас тоже.
Приведите пример хотя бы двух уровней чего-то там в мозге.
Я уже приводил. См. недавние цитаты из АИ. Там прямо указаны два уровня чего-то там в мозге.
За синхронизацию нейронов я вам в прошлый раз пояснил.
Процитируйте. И что я вам на это ответил заодно тоже.
ChatGPT - это полиглот на естественных языках и языках программирования. Он крут. С ним можно говорить на любую тему, а не как с рабочими на производстве.
Когда сильно любишь, многое прощаешь? У вас по этому принципу аргументы против ваших идей забываются? Хорошо, я вам напомню. Внимайте.
(Чем ИИ отличается от рабочего на производстве.)
Проверим, как это ограничение будет выглядеть на практике.
Чем сложнее становятся создаваемые системы, тем сложнее становятся и решаемые ими задачи. Но сложные задачи — это и важные задачи, а значит, чем сложнее система, тем больше возможный вред от её ошибок. К примеру, даже обычная диалоговая нейронная сеть по типу более продвинутой Алисы или Сири, призванная в том числе для ни к чему не обязывающих бесед, за рамками проверенных разработчиками вопросов и ответов может посоветовать пользователю что-то опасное, неадекватное. Но не каждый сможет неадекватность распознать и не все вопросы можно задать заранее. Надо заметить, это уже реальная проблема, возникающая в разработке таких систем. Обучаясь в сети Интернет, они затем дезинформируют предполагаемого пользователя, так как в интернете широко представлена в том числе и разного рода ложная информация, несерьёзная, оскорбительная, требующая тонкого понимания контекста и знаний, которым сложно научиться на примерах из интернета. Не исправляют ситуацию специально подобранные примеры, например, огромные массивы различных проверенных текстов, так как из текстов в любом случае невозможно вынести то общее понимание смысла своих действий, которое так или иначе задаёт адекватность поведения во всех частных ситуациях.
Как кажется, очевидный выход — это усложнение нейронных сетей. Тогда обучить их можно будет большему, а значит, они смогут воспринимать мир в большем многообразии причин и следствий. Но, не говоря о технических проблемах, чем сложнее становятся нейронные сети и потому потенциально шире область их возможного применения, тем стремительнее будет расти важность их проверки во всех условиях, где сеть потенциально может быть использована, так как за рамками проверенных её решения всегда могут быть опасны. Причём, так как речь идёт о системах обучающихся, которые могут стать неадекватными уже в процессе использования, то в идеале проверять нейронную сеть требуется не только во всех возможных условиях, но и по-разному обученные.
Однако, стремительно уменьшая возможности этой проверки, чем сложнее становятся создаваемые наугад системы, тем больше их возможных вариантов, а поведение этих вариантов становится всё богаче — аналогично богатству поведения человека. В том числе богаче стратегическими решениями, которые уже в принципе невозможно оценить сколько-нибудь быстро.
Например, поведение человека — это реализация глобальной и, по сути, бесконечной стратегии самосохранения и размножения. Эта стратегия реализуется в чрезвычайно сложной и постоянно меняющейся социальной и природной среде, где все частные решения увязаны между собой, из-за чего их нельзя оценить однозначно ни на каком конечном промежутке времени. При этом важность точной оценки при всей стремительно растущей сложности её дать становится тем выше, чем более отдалённые последствия рассматривать. К примеру, даже оценка того, что съесть на завтрак, будет меняться и становиться всё сложнее и важнее, если рассматривать завтрак не просто с точки зрения насыщения здесь и сейчас, а в контексте всё более многоплановых и далёких последствий завтрака для решения задач наступающего дня, влияния на здоровье, на своё будущее, на будущее семьи, как пример для детей и так далее. Ещё стремительнее важность точной оценки будет расти, если это план лечения тяжёлой болезни, эпидемии, управленческие, экономические или политические решения различного уровня, непосредственно влияющие на жизнь сразу множества людей.
Тем не менее сказанное ещё не раскрывает всю глубину проблемы, ведь искусственный интеллект предстаёт в нём не более чем советчиком, компилирующим некий вариант решения задачи на основании уже известного, но он не проводит самостоятельные исследования и не исполняет своё решение.
Как говорилось, на базе обучающей выборки искусственный интеллект может подсказать человеку решение проблемы. В некоторой степени это уже доступно передовым разработкам в области искусственного интеллекта. Это может быть совет (обычно малосодержательный и часто неадекватный) абстрактного характера, научного или любого другого от диалоговых систем, а специализированные системы могут поставить медицинский диагноз и составить план лечения. Диалоговые системы сейчас создаются больше с развлекательной и исследовательской целью, а советы медицинских систем проверяются врачом. Но если сложность советов искусственного интеллекта будет расти, то их характер будет становиться всё более стратегическим, поэтому в соответствии со сказанным выше оценка адекватности будет усложняться и стремиться ко всё более неопределённой. В то же время пока речь шла только о неких высказанных искусственным интеллектом идеях, которым можно следовать, следовать с осторожностью или не следовать вообще. Однако важность точной оценки адекватности начинает расти несравнимо более стремительно в случае, если поведение искусственного интеллекта будет подразумевать самостоятельность — от исследовательских действий и принятия решения до его исполнения.
В результате, получается, что когда отследить и исправить неадекватность нейронной сети стало сложно, тогда, чтобы сеть могла стать более адекватной за счёт большего объёма опыта, мы решили её усложнить. Имея как образец только себя и свои знания, усложнение возможно только одним способом — это приближать нейронную сеть к тому сложному и глобальному пространственному и временному представлению о мире, которое доступно человеку. Но оказывается, что необходимость проверки решений искусственного интеллекта от этого не только не уменьшилась, а она стала ещё более необходимой, при том, что осуществить её, наоборот, стало намного труднее.
По мере усложнения нейронных сетей всё быстрее будет расти количество их возможных вариантов. Одновременно будет всё богаче становиться поведение сетей, тем самым требуя всё больше времени для его проверки, при этом важность этой проверки будет становиться всё выше, а критерий оценки — наше собственное поведение — будет всё менее понятен. Ситуаций, в которых нужно проверить сеть, чтобы оценить её адекватность, будет уже не просто много — они будут становиться всё более сложными, многоплановыми, стратегически неоднозначными и в конечном счёте всё более неопределёнными. Верный выход из них будет всё труднее сформулировать, сами ситуации всё труднее конкретизировать, найти, представить. В результате проверить поведение сетей будет возможно только всё более и более фрагментарно, аналогично тому, как неполно и неточно мы можем оценить поведение других людей в каком-либо тесте или опросе.
Однако, если говорить о людях, то за рамками проверенного мы всё равно можем рассчитывать на адекватность других людей — и не просто потому, что в каждом из нас заключён опыт миллиардов лет биологической эволюции, а потому что стремление к самосохранению и размножению встроено в любую жизнь ещё на физическом уровне. Это та общая для всех цель, которая придаёт смысл всем действиям человека, задавая самый общий критерий разумного и не разумного, опасного и полезного, ложного и истинного. Такая поведенческая однонаправленность определяет значительную общность всех людей — их мнений, целей, интересов, а также понимание чужих поступков, возможность их предвидеть, различать намерения, легко этому обучаться. И даже не только людей, по тем же причинам общности нам также понятно и поведение животных. Поэтому если у человека склонность к серьёзной неадекватности можно заметить по множеству внешних признаков, то в отношении искусственных нейронных сетей ни на что из этого рассчитывать нельзя. В отсутствие понимания работы системы и общности этой работы с собой, сколько-нибудь достоверная экстраполяция поведения системы в проверенных ситуациях на ситуации ещё не проверенные невозможна.
В итоге, как непосредственное проявление указанной ранее необходимости прыгнуть выше головы, знать больше, чем может быть известно, на практике мы будем наблюдать, что задолго до приближения искусственных нейронных сетей к сложности интеллекта человека сочетание стремительно растущего количества возможных вариантов сетей и столь же стремительно уменьшающаяся возможность оценить их адекватность приведёт к тому, что дальнейшая разработка искусственного интеллекта потеряет всякий смысл, так как время практической реализации каждого нового усложнения будет всё стремительнее расти к бесконечности.
Теперь посмотрим на обнаруженные нами зависимости более внимательно. ...
Современный ИИ обучается как минимум на текстах, отчасти (и как минимум в перспективе) на видео (кино, документалистика, новости и т.д.) С моей точки зрения это почти на 100% покрывает знания человечества об окружающем мире. ИИ не чувствует эмоций и физических ощущений, но этого и не требуется - для понимания вполне достаточно их описания (прежде всего - через бесчисленные примеры).
Под тем, "что удалось формализовать", в первую очередь тексты и имелись в виду.
Знания о мире, фильмы - это не мир. Человек познаёт мир, а ИИ знания человека, по крайней мере до тех пор пока обучается только на них.
По-прежнему не понимаю зачем ИИ нужны ощущения, если у него есть знания.
Я не писал о необходимости ощущений. Имелось в виду совершенно другое - то, что написано сейчас выше.
А зачем надо выходить за рамки мира, чтобы оценить его, я вообще не понял. Человек же познает этот мир не выходя за его рамки.
Чтобы понять явление, его надо вместить в свой опыт. То есть, как говорится, посмотреть со стороны. Поэтому человек мир познаёт, но знания его всегда неполны.
Игра го, например - она находится за рамками нашего мира?
Настолько, насколько человек сможет эту игру понять. Понять может во многом. Именно поэтому человек смог эту игру придумать, и может оценить игру ИИ, кто победил, кто проиграл, как улучшить его игру и так далее. Образно говоря, для ИИ эта игра - его мир, к которому он приспосабливается. Вполне можно создать ИИ, который будет лучше приспособлен к миру игры, чем к нему сможет приспособиться человек, - ведь человек приспосабливается совсем к другому миру, сильно отличному от игры в го. Калькуляторы быстрее считают, машины быстрее перемещаются, но создаёт и оценивает их человек. Так же и с игрой в го.
По каким таким причинам ИИ в принципе не способен воспринимать условия в той полноте, в какой это может делать ЕИ? Здравый смысл и практика говорят об обратном - ИИ способен 1) обрабатывать огромные объемы данных и 2) извлекать из них даже скрытые закономерности.
Далее вы апеллируете к работе мозга. Я ничего не понимаю в неравновесных фазовых переходах и прочих бифуркациях, но не считаю корректным сравнение когнитивных способностей ИИ и "архитектуры" мозга - сравнивать надо сопоставимое: когнитивные способности ИИ и когнитивные способности человека, архитектуру ИИ и "архитектуру" мозга.
Я так и не понял зачем интеллекту нужны неравновесные фазовые переходы, но допустим - что мешает искусственно воспроизвести их аналог в ИИ? Или как насчет эволюционного программирования? И как ИИ ухитрился "далеко и адекватно развиваться без человека" в игре го, например?
В теме уже есть все объяснения, поэтому сейчас давайте упростим. Попробуем сделать ИИ сразу из живых нейронов. Предположим, что склеивать живые нейроны в какую угодно сеть для нас не проблема (хотя это очень сильно принципиальная проблема, но мы же упрощаем). Так вот, создать сильный ИИ на практике нам всё равно помешают аргументы, приведённые в предыдущем посте, о невозможности создания сильного ИИ на практике. То есть сами создать сильный ИИ мы не сможем в любом случае, из чего бы его ни делать. Но можно "выпустить ИИ на волю", организм для этого приделать и так далее, чтобы он сам развивался, и мы не ограничивали его своим опытом. Только ждать эволюционного усложнения долго, к тому же наша эволюция тоже не стоит на месте.
1) невозможна столь же или даже более эффективная архитектура на других принципах (например, квантовые компьютеры)
2) в нейроморфных, импульсных и т.д. процессорах нельзя воссоздать свойства живого мозга.
Первый вариант - это скорость вычислений (и то, только в некоторых алгоритмах), второй - экономия энергии, компактность. Больше ничего, насколько я знаю, эти варианты не дают. Работу мозга физически они не повторяют.
Более или менее точно говоря, отличие ЕИ в том, что за счёт неограниченной чувствительности ЕИ "погружён" в реальность максимально глубоко, способен воспринимать её более полно, чем любой мыслимый сейчас ИИ. И это не чувствительность рецепторов. Следствием этой чувствительности являются другие достоинства - качественно более высокая пластичность и одновременно упорядоченность, то есть глубина перестроения, возможность подстраиваться.