2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 4, 5, 6, 7, 8, 9, 10 ... 18  След.
 
 Re: Еще раз про сильный ИИ
Сообщение29.11.2022, 21:59 
Заслуженный участник
Аватара пользователя


16/07/14
8632
Цюрих
DARIUS в сообщении #1571937 писал(а):
Только я не понимаю ,что вы хотите сказать?
Я хочу сказать, что вы не можете предсказать, как сыграет нейронка без дебютной базы против лучшей классической программы с дебютной базой. Потому что за последние 5 лет в разные моменты времени первое место занимал то один, то другой подход. А что вы хотите сказать словами "результат такого матча предсказать несложно"?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение29.11.2022, 22:01 
Заслуженный участник
Аватара пользователя


15/10/08
11626
DARIUS в сообщении #1571937 писал(а):
получается что дебютная база вообще не нужна
Да.
DARIUS в сообщении #1571937 писал(а):
шахматы стали полностью изученной игрой
Нет.
DARIUS в сообщении #1571937 писал(а):
В раю в шахматы не играют
Хм... Давно туда не заглядывал, так что затрудняюсь ответить.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение29.11.2022, 22:07 


20/11/12
56
mihaild в сообщении #1571942 писал(а):
DARIUS в сообщении #1571937 писал(а):
Только я не понимаю ,что вы хотите сказать?
Я хочу сказать, что вы не можете предсказать, как сыграет нейронка без дебютной базы против лучшей классической программы с дебютной базой. Потому что за последние 5 лет в разные моменты времени первое место занимал то один, то другой подход. А что вы хотите сказать словами "результат такого матча предсказать несложно"?

Так собственно вопрос:если в нейронку добавить базы дебютную (и эндшпильную) то программа станет играть лучше ,хуже или уровень игры не изменится?Также я прошу заметить ,что я имел ввиду игру программы с самой собой,вы кстати допустили логическю ошибку указав на резкий рост рейтинга AlphaGo ,о чем вообще можно говорить если это программы одной фирмы где все знают исходники.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение29.11.2022, 23:10 
Заслуженный участник
Аватара пользователя


16/07/14
8632
Цюрих
DARIUS в сообщении #1571946 писал(а):
Так собственно вопрос:если в нейронку добавить базы дебютную (и эндшпильную) то программа станет играть лучше ,хуже или уровень игры не изменится?
Непосредственно взять и добавить в нейронку дебютную базу не получится - у неё есть вход, на который подается состояние доски, и больше ничего. Собрать какой-то гибрид из дебютных баз и нейронки, наверное, можно, и, скорее всего, кто-то пытался, но я о результатах не слышал. И из общих соображений буду удивлен, если результат будет лучше, чем у просто нейронки - если до какого-то дебюта нейронка сама по себе не додумалась, то она мало играла в позиции, получающейся из него, и теоретически в таких позициях она может играть хуже. Тут еще был бы интересный эксперимент - взять середину произвольной партии и посмотреть, как нейронка будет её доигрывать.
DARIUS в сообщении #1571951 писал(а):
Только хотел вспомнить про таблицы Налимова а вы меня опередили
Всё-таки не совсем. Вон какой-то товарищ даже диплом про это написал https://webdocs.cs.ualberta.ca/~mmuelle ... 11_MSc.pdf - да, модель делает ошибки, но не очень много.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение29.11.2022, 23:50 


05/12/14
219
ozheredov в сообщении #1571709 писал(а):
Я вывел на монитор изображение равномерно синего фона. Сигнал на монитор идет по hdmi-кабелю с выхода видеокарты. В каком месте там синий цвет?

Вот и я вас спрашиваю, в каком? Где в "совокупности сигналов на нейронах промежуточных слоев глубокой нейросети", как вы пишете, возникает свет, темнота или радость? Чем "сигналы на нейронах промежуточных слоев глубокой нейросети" настолько отличаются от сигналов на "выходах с видеокарт", что в совокупностях первых возникает квалиа? "Совокупность сигналов" - это же количество сигналов? Попробуйте через количество сигналов или вообще какое-нибудь "количество" выразить свет, темноту, боль или удивление.

И вот ещё над чем задумайтесь. Если бы сознание можно было хотя бы в принципе выразить количественно, то, хотя бы в том же принципиальном смысле, количественно можно было бы выразить и мышление (не где-то же конём в вакууме сознание витает отдельно от процесса мышления). Но в таком случае всё наше поведение являлось бы детерминированным, а значит, оказалось бы, что каждый наш поступок был задан ещё в момент рождения вселенной. Это выглядит абсолютно невероятным и никакая вероятностная трактовка развития мира от этой бессмысленной заданности хорошо не спасает. С помощью физики и логики уйти от заданности можно, но ответ будет необычным.

ozheredov в сообщении #1571709 писал(а):
Вот эта нелинейность как раз и обуславливает такой рельеф целевой функции, для которого невозможно сразу угадать, где у нее минимум. У Вас другой вариант ответа? Обязательно напишите, все вместе посмеемся.

Угадать сложно, верно. Но зачем угадывать? Представили задачу, прикинули путь к решению, мысленно провели итерации, если так уж нужно, и выдали на гора нейронную сеть, сразу готовую. Что мешает это сделать? Я же вам этот вопрос задавал? Впрочем, это уже неважно, как вы и просили, мой вариант ответа ниже.

mihaild в сообщении #1571736 писал(а):
Очевидно если модель печени не моделирует очистку крови, то это плохая модель. Надо перестать её использовать и взять хорошую (если нас интересует очистка крови).

Вы здесь говорите о модели, а речь шла о программе. Если так и было задумано, то программа на флешке, в компьютере. Но флешку в организм вместо печени лучше не вставлять, даже с хорошей программой. Почему же вы считаете, что программа может мыслить? Кровь очищать не может, а мыслить может? По-моему, умение мыслить явно посложнее будет, чем кровь очищать.

Алгоритм, программа - это код, в котором зашифрована реальность в контексте нашего опыта. Естественно, что код сам по себе кровь не очистит и пищу не переварит, для этого на основе кода нужно создавать модель явления "в металле". Но в отношении мышления мы почему-то уверены, что кода достаточно. Если же представить, что само мышление и есть код, и его модель поэтому тоже код, то реальное мышление никаким языком выразить невозможно, никакого языка для этого не хватит. То есть явно не код. В итоге нам останется только обратиться к физике работы мозга, попробовать найти там основания "невыразимости" и, если они там действительно есть, то по домам. К тому же если они есть, то точности виртуальной реальности никогда не хватит для моделирования жизни, а значит, и эволюции. То есть тупик и тут.

Теперь аргументы. Их продолжение в посте ниже. Весь объём (5 стр.) в один пост не влезает, а сокращать, по-моему, неоптимально. Но вообще изложенного в этом посте достаточно, второй пост обобщающий. Речь идёт не только о нейронных сетях, это станет ясно по тексту. О системах из живых нейронов и генной инженерии написано в конце второго поста.

(Осторожно, четыре страницы естественного языка.)

Работа искусственных нейронных сетей не задаётся заранее в точности. Ввиду сложной структуры нейросетевого алгоритма, проследить ход вычислений мысленно невозможно, поэтому конкретные параметры создаваемой сети выбираются более или менее наугад на основании прошлого опыта решения сетями похожих задач и других общих соображений о целесообразности того или иного выбора. После чего сеть обучается. В процессе обучения сеть оптимизируется под решение поставленной задачи — можно сказать, что «грубый» процесс создания нейросетевого алгоритма сменяется «тонкой» подгонкой его под задачу. Процесс обучения тоже во многом интуитивен и результат не гарантирует. Дело обстоит практически так же, как и в отношении человека — работа мозга непонятна, поэтому и верный подход к обучению неизвестен, и результат не гарантирован.

Если работа системы непонятна, то оценить её решения, естественно, можно только «снаружи», по самим решениям, а не в точности понимая, как они возникают. Поэтому искусственной нейронной сети приходится или «верить на слово», или прежде проверять адекватность её решений. Образно говоря, как и в случае человека, мы больше судим нейронную сеть «по делам», чем проверяя ход её «мыслей». Как следствие, в создании нейронных сетей возникает такая составляющая, как отбор. Аналогично естественному отбору искусственные нейронные сети создаются и обучаются более или менее наугад, в процессе чего среда — в данном случае сам человек, как создатель нейронной сети — оставляет те, которые отвечают его нуждам.

При этом, создавая искусственный интеллект, мы так или иначе воссоздаём своё представление о том, что мы хотим от искусственного интеллекта. Очевидно, что сложность этого представления ограничена нашим нынешними знаниями. Таким образом, наша способность «отбирать», то есть отделять адекватные системы от не адекватных, неизменно ограничена нашими нынешними знаниями.

Но очевидно, что наши нынешние знания — это далеко не все потенциально возможные знания. Однако создать мы должны нейронную сеть, которая потенциально может знать всё, что потенциально можем знать мы. Другими словами, мы должны создать такую нейронную сеть, возможное богатство поведения которой равно возможному богатству поведения человека, при том, что оценить богатство поведения мы можем, только исходя из известного о нём сейчас — ни сложность, ни объём каковых знаний не равны максимально возможным. Получается, нужно прыгнуть выше головы, создать то, неизвестно что — для создания искусственного интеллекта хотя бы только равной себе сложности уже потребуется знать больше, чем известно. Причём учитывая, что приближение к максимально возможному знанию бесконечно, то и знать больше, чем в принципе может быть известно за любой конечный промежуток времени.

Посмотрим на сказанное с другого ракурса. Исследуя мозг, мы выдвигаем гипотезу в отношении работы мозга и проверяем её, наблюдая за его работой, то есть наблюдая за поведением самих себя. Создавая искусственные нейронные сети, мы выдвигаем гипотезу в отношении устройства сети и проверяем её, опять же сравнивая поведение создаваемой системы со своим поведением, со своими задачами и их решениями. Таким образом, и изучение естественного интеллекта, и создание интеллекта искусственного одинаково требует всё более глубокого понимания своего поведения.

Но понимание своего поведения равносильно пониманию своего мышления, которое сколько-нибудь точно понять невозможно. Прямой алгоритм мышления не имеет смысла, так как в этом случае выводимыми становятся все утверждения, которые только можно сформулировать, включая противоположные или о ложности самого алгоритма мышления. Но именно прямой алгоритм есть суть понимания: явление изучено, если оно предсказуемо, то есть установлена ясная однозначная связь между начальными условиями и течением явления. И так как в случае мышления это невозможно, то поведение в той же степени непознаваемое, как и мышление. Но это значит, что для создания искусственного интеллекта равного интеллекту человека действительно потребуется выйти за рамки познаваемого. Но за рамками познаваемого оценить нельзя ничего, никакой «отбор» за этими рамками невозможен, адекватные системы будет невозможно отделить от не адекватных.

Иными словами, по мере приближения сложности создаваемых систем к сложности интеллекта человека будет необходимо всё более глубокое познание того, что ни за какой конечный промежуток времени познано быть не может — всего возможного богатства поведения человека. Эта зависимость говорит о том, что по мере приближения создаваемых систем к сложности интеллекта своего создателя их усложнение будет идти всё медленнее и медленнее и в конечном итоге оно будет всегда ограничено некоторым уровнем от нынешних знаний. Сложность искусственного интеллекта всегда будет ограничивать непознаваемость явления, которое в нём предполагается воплотить — интеллекта человека.

Проверим, как это ограничение будет выглядеть на практике.

Чем сложнее становятся создаваемые системы, тем сложнее становятся и решаемые ими задачи. Но сложные задачи — это и важные задачи, а значит, чем сложнее система, тем больше возможный вред от её ошибок. К примеру, даже обычная диалоговая нейронная сеть по типу более продвинутой Алисы или Сири, призванная в том числе для ни к чему не обязывающих бесед, за рамками проверенных разработчиками вопросов и ответов может посоветовать пользователю что-то опасное, неадекватное. Но не каждый сможет неадекватность распознать и не все вопросы можно задать заранее. Надо заметить, это уже реальная проблема, возникающая в разработке таких систем. Обучаясь в сети Интернет, они затем дезинформируют предполагаемого пользователя, так как в интернете широко представлена в том числе и разного рода ложная информация, несерьёзная, оскорбительная, требующая тонкого понимания контекста и знаний, которым сложно научиться на примерах из интернета. Не исправляют ситуацию специально подобранные примеры, например, огромные массивы различных проверенных текстов, так как из текстов в любом случае невозможно вынести то общее понимание смысла своих действий, которое так или иначе задаёт адекватность поведения во всех частных ситуациях.

Как кажется, очевидный выход — это усложнение нейронных сетей. Тогда обучить их можно будет большему, а значит, они смогут воспринимать мир в большем многообразии причин и следствий. Но, не говоря о технических проблемах, чем сложнее становятся нейронные сети и потому потенциально шире область их возможного применения, тем стремительнее будет расти важность их проверки во всех условиях, где сеть потенциально может быть использована, так как за рамками проверенных её решения всегда могут быть опасны. Причём, так как речь идёт о системах обучающихся, которые могут стать неадекватными уже в процессе использования, то в идеале проверять нейронную сеть требуется не только во всех возможных условиях, но и по-разному обученные.

Однако, стремительно уменьшая возможности этой проверки, чем сложнее становятся создаваемые наугад системы, тем больше их возможных вариантов, а поведение этих вариантов становится всё богаче — аналогично богатству поведения человека. В том числе богаче стратегическими решениями, которые уже в принципе невозможно проверить сколько-нибудь быстро. Но стратегические решения — это и стратегические последствия, их важность очень высока.

В результате, получается, что когда отследить и исправить неадекватность нейронной сети стало сложно, тогда, чтобы сеть могла стать более адекватной за счёт большего объёма опыта, мы решили её усложнить, но оказалось, что необходимость проверки от этого не только не уменьшилась, а она стала ещё более необходимой, при том, что осуществить её, наоборот, стало намного труднее.

Таким образом, по мере усложнения нейронных сетей всё быстрее будет расти количество их возможных вариантов. Одновременно будет всё богаче становиться поведение сетей, тем самым требуя всё больше времени для его проверки, при этом важность этой проверки будет становиться всё выше, а критерий оценки — наше собственное поведение — будет всё менее понятен. Ситуаций, в которых нужно проверить сеть, чтобы оценить её адекватность, будет уже не просто много — они будут становиться всё более сложными, многоплановыми и в конечном счёте всё более неопределёнными. Верный выход из них будет всё труднее сформулировать, сами ситуации всё труднее конкретизировать, найти, представить. В результате проверить поведение сетей будет возможно только всё более и более фрагментарно, аналогично тому, как неполно и неточно мы можем оценить поведение других людей в каком-либо тесте или опросе.

Однако, если говорить о людях, то за рамками проверенного мы всё равно можем рассчитывать на адекватность других людей — и не просто потому, что в каждом из нас заключён опыт миллиардов лет биологической эволюции, а потому что стремление к самосохранению и размножению встроено в любую жизнь ещё на физическом уровне. Такая поведенческая однонаправленность определяет значительную общность всех людей — их мнений, целей, интересов, а также понимание чужих поступков, возможность их предвидеть, различать намерения, легко этому обучаться. И даже не только людей, по тем же причинам общности нам также понятно и поведение животных. Поэтому если у человека склонность к серьёзной неадекватности можно заметить по множеству внешних признаков, то в отношении искусственных нейронных сетей ни на что из этого рассчитывать нельзя. В отсутствие понимания работы системы и общности этой работы с собой, сколько-нибудь достоверная экстраполяция поведения системы в проверенных ситуациях на ситуации ещё не проверенные невозможна.

В итоге, как непосредственное проявление указанной ранее необходимости «прыгнуть выше головы», знать больше, чем известно, на практике мы будем наблюдать, что задолго до приближения искусственных нейронных сетей к сложности интеллекта человека сочетание стремительно растущего количества возможных вариантов сетей и столь же стремительно уменьшающаяся возможность оценить их адекватность приведёт к тому, что дальнейшая разработка искусственного интеллекта потеряет всякий смысл, так как время практической реализации каждого нового усложнения будет всё стремительнее расти к бесконечности.

Теперь посмотрим на обнаруженные нами зависимости более внимательно.

Искусственные нейронные сети нам нужны в тех случаях, когда сложно решить задачу прямым путём. Другими словами, на практике искусственные нейронные сети позволяют решать задачи более сложные, чем те, которые можно решить прямыми средствами, точно и однозначно задав порядок переработки данных в результат.

Но за счёт чего у сетей появляются такие возможности? За счёт растущего непонимания их работы, неоднозначности результатов этой работы, увеличения доли случайного выбора, то есть за счёт роста неопределённости. Но почему рост неопределённости позволяет решать более сложные задачи?

Прямой алгоритм мышления не имеет смысла, поэтому прямыми средствами искусственный интеллект, равный сложности человека, создать нельзя, это невозможно в принципе. На практике это ограничение будет проявляться в том, что усложнение прямых алгоритмов и, соответственно, решение всё более сложных задач будет требовать всё больших усилий, и в конечном итоге выгода от прироста сложности алгоритмов перестанет усилия по их созданию оправдывать. Тогда, если прямых — понятных и однозначных — средств уже не осталось, остаётся только рассмотреть средства не прямые — непонятные и неоднозначные. Надежда теперь может быть только на них, потому что какого-либо третьего варианта решения задач попросту нет. И действительно, мы видим, что на практике возможности искусственных нейронных сетей по крайней мере в некоторых задачах выше.

Но всё это происходит за счёт роста неопределённости, то есть за счёт роста объёма непонятного и неоднозначного в работе, устройстве и оценке результатов работы создаваемых систем. В свою очередь, неопределённость в понимании того, как конкретно система приходит к тому или иному решению, приводит к появлению отбора. Вместо мысленного «отбора» верного пути к решению ещё до или во время написания алгоритма, как это происходит в случае прямого алгоритма решения задачи, в случае нейронных сетей отбор происходит по итогам работы алгоритма — решила искусственная нейронная сеть задачу или нет.

Но ведь возможности нашего «отбирающего» мозга от этого не увеличиваются. Поэтому то, что всё сложнее становится написать прямой алгоритм решения, означает и то, что всё труднее становится отличить верное решение от неверного, если они будут предъявлены уже готовыми, как результат работы сети. Поэтому так же, как всё труднее становится сформулировать прямой алгоритм, в той же степени растут трудности отбора алгоритмов не прямых — вариантов систем становится всё больше, отделить адекватный вариант системы от неадекватного становится всё труднее, это требует всё больше времени.

При этом в связи с ростом возможностей систем и цена их ошибок тоже становится всё выше, поэтому параметры отбора приходится формулировать всё точнее, строже. Но это равносильно всё большему пониманию работы системы, то есть приближению не прямого алгоритма обратно к прямому — к тому, от которого мы, наоборот, хотели уйти. Другими словами, по мере приближения сложности создаваемых систем к сложности интеллекта человека рост неопределённости будет всё больше требовать роста определённости. Но «определённость» — это суть прямой алгоритм. Тем самым рост сложности будет тормозить сам себя. Как следствие, усложнение и не прямых решений тоже начнёт всё быстрее и быстрее терять смысл.

Таким образом, уменьшение в нейронных сетях одного ограничивающего параметра — необходимости точно представлять алгоритм работы системы, который ограничивает сложность прямых алгоритмов, фактически всего лишь приводит к взаимосвязанному увеличению сразу целого набора других ограничивающих параметров, в том числе самого же этого параметра в новом виде — в виде растущей необходимости всё точнее представлять критерии отбора при одновременном росте богатства поведения. В результате время каждого нового усложнения систем будет всё быстрее расти к бесконечности, и в итоге их усложнение потеряет всякий смысл задолго до сколько-нибудь близкого приближения к сложности интеллекта человека.

Вспомним ещё раз, что прямой алгоритм — это не только путь от данных к решению, это ещё и выражение понимания, точного, однозначного знания. Но прямой алгоритм мышления не имеет смысла, то есть он не просто сложен, а именно невозможен, не может существовать. Что в точности равносильно принципиальному отсутствию сколько-нибудь ясного представления о системе, которая сможет выразить всю сложность мышления, то есть равносильно отсутствию определённости — и, таким образом, неопределённости — по всем параметрам создаваемых систем по мере их приближения к сложности интеллекта человека. В результате возникают все те растущие сложности и ограничения, описанные выше. Например, точно так же что-то более или менее общее о работе мозга сказать можно, но чем глубже мы пытаемся понять мышление, тем больших усилий это требует. Всё известное о мышлении далеко от реальной сложности явления, однако только модель равной сложности имеет в данном случае смысл.

Таким образом, мы показали, что, по всей видимости, принципиальным пределом сложности искусственных нейронных сетей, создаваемых человеком, является сложность интеллекта самого человека, как их создателя. Этот вывод не имеет точного количественного выражения и не обладает математической строгостью — таковое в любом случае невозможно, и не имеет экспериментального подтверждения — оно отнимет вечность, и потому он может показаться недостаточно убедительным. Однако даже если указанные закономерности в точности существуют и всё сказанное верно, никаким более доказательным образом сформулировать их всё равно не представляется возможным.

Продолжение в следующем посте.

-- 29.11.2022, 23:55 --

Продолжение хочет вставиться в этот пост, где места уже нет. Ладно, потом.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 00:12 
Заслуженный участник
Аватара пользователя


16/07/14
8632
Цюрих
Dicson в сообщении #1571961 писал(а):
Представили задачу, прикинули путь к решению, мысленно провели итерации, если так уж нужно, и выдали на гора нейронную сеть, сразу готовую. Что мешает это сделать?
Так можно считать, что градиентный спуск и проводит эти итерации. При большом желании можете перемножать матрицы в уме, результат получится тот же самый.
Dicson в сообщении #1571961 писал(а):
Почему же вы считаете, что программа может мыслить? Кровь очищать не может, а мыслить может? По-моему, умение мыслить явно посложнее будет, чем кровь очищать.
Потому что достаточно точная эмуляция мышления это и есть мышление, в отличии от очистки крови. Из эмуляции написания сочинения очень легко сделать сочинение.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 00:27 


05/12/14
219
mihaild в сообщении #1571963 писал(а):
Так можно считать, что градиентный спуск и проводит эти итерации. При большом желании можете перемножать матрицы в уме, результат получится тот же самый.

Может быть, до поры до времени что-то и можно в уме. Но недолго. Иначе бы сети так и создавали - в уме.

mihaild в сообщении #1571963 писал(а):
Потому что достаточно точная эмуляция мышления это и есть мышление, в отличии от очистки крови. Из эмуляции написания сочинения очень легко сделать сочинение.

То есть мышление - это код? Об этом предположении у меня написано. Это не так, потому что языка не хватит.

Но спасибо за ответ, есть возможность вставить оставшуюся часть.

(Ещё одна страница естественного языка)

Теперь посмотрим на ситуацию в целом.

Создание человеком какой-либо системы, равной сложности интеллекта самого человека, равносильно выходу за рамки всех тех знаний, которые можно отнести к точным, ясным, однозначным, формальным. Ведь такие знания только часть опыта, а создаваемая система должна выразить весь опыт человека. Но за рамками точного знания создание чего-либо целенаправленно, точно понимая что, как и зачем делается, невозможно. Поэтому по мере усложнения систем и приближения их к сложности интеллекта человека будет расти неопределённость. Непосредственно рост неопределённости будет выражаться в том, что, ввиду роста сложности задач, всё труднее будет написать прямой алгоритм работы систем, будет расти необходимость непрямых решений, и далее, как следствие усложнения и таких алгоритмов тоже, всё быстрее будет расти количество возможных вариантов систем, всё сложнее будет отличить адекватный вариант системы от не адекватного, всё больше времени это будет требовать, всё выше будет становиться цена ошибки.

Однако на самом деле создание системы, даже только равной себе сложности, равносильно выходу рамки вообще какого бы то ни было опыта. Ведь оценка адекватности такой системы равносильна утверждению сразу обо всех своих знаниях, обо всём опыте, причём обо всём возможном опыте, то есть даже о том, которого ещё нет. Но это равносильно тому, чтобы посмотреть на весь возможный опыт со стороны, то есть выйти за рамки самого себя, за рамки вообще какого бы то ни было опыта, чтобы увидеть себя со всем возможным опытом сразу, то есть во всём возможном прошлом и будущем. Что, естественно, не имеет смысла. Поэтому неопределённость будет стремиться к полной, по мере приближения сложности создаваемых систем к сложности мышления самого человека.

Этот более общий аргумент говорит о том, что никакая система, создаваемая человеком, не может быть сложнее его собственного интеллекта. Этот аргумент можно сформулировать через алгоритм мышления: прямой алгоритм мышления не имеет смысла, поэтому по мере усложнения создаваемых систем, как фактически бесконечного движения в сторону этого «бессмысленного» итога, должна расти неопределённость, то есть расти «бессмысленность» усложнения.

В этом более общем взгляде заметно, что вывод о границах сложности искусственных нейронных сетей — это на самом деле вывод о границах сложности сразу всех мыслимых систем, в создании которых как-либо участвует интеллект человека. Значение имеет только одно — чем полнее работу системы определяет написанный человеком алгоритм, тем ниже будет её сложность по сравнению с интеллектом человека.

Например, этот вывод касается и искусственных биологических систем в том числе. К примеру, гипотетического искусственного интеллекта, собираемого непосредственно из биологических нейронов. В создании таких «живых искусственных» систем точно так же будет расти неопределённость и точно так же потребуется отбор, как и в создании «обычных» искусственных нейронных сетей.

В том числе этот вывод касается биологических систем, создаваемых посредством генной инженерии. Возможность направлено вырастить искусственный интеллект равносильна написанию прямого алгоритма мышления, а в любом другом случае это будет тот же случайный выбор, рост неопределённости и проблемы отбора. Подробное обоснование этого утверждения потребует рассмотрения принципов морфогенеза (развитие организма из одной клетки), что выходит за рамки статьи, но если говорить упрощённо, то морфогенез похож на работу клеточного автомата. Вспомним, в клеточном автомате задаются правила взаимодействия, появления и исчезновения клеток. После чего, запустив программу, можно наблюдать на экране компьютера эволюцию различных структур клеток — хаотических, упорядоченных, пульсирующих, сложных и простых. Заранее предсказать, какие структуры будут получаться, в общем случае невозможно, потому что, с одной стороны, нельзя мысленно проследить процесс, так как он слишком сложен, с другой — нигде нет плана возникающих структур клеток, который можно было бы найти и расшифровать, ведь заданы только правила взаимодействия клеток, а не их структуры. В результате можно только более или менее наугад задать эти правила и проверить результат «экспериментально», запустив автомат. Точно так же нигде нет «плана» будущего организма, а есть только определённые «правила», зашифрованные в ДНК. Таким образом, генная инженерия точно так же во многом связана с угадыванием и последующим отбором, как и создание искусственных нейронных сетей или «сборка» нейронных сетей из биологических нейронов.

Подведём итог.

Нет ответа на вопрос, какое максимальное количество нейронов может в принципе иметь искусственная нейронная сеть, так как нет никаких критериев для оценки. В то же время, как кажется, невозможно увеличивать количество элементов искусственной системы бесконечно, где-то должен быть предел. Как оказалось, он действительно есть. Этот предел — сложность интеллекта самого человека. Поэтому, получается, что чем больше мы приближаем систему к сложности своего интеллекта, тем больше времени это отнимает. И задолго до итога стремящееся к бесконечности совокупное время реализации каждого нового усложнения сделает дальнейшие попытки лишёнными смысла.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 00:46 


10/03/16
4029
Aeroport
Dicson в сообщении #1571961 писал(а):
Где в "совокупности сигналов на нейронах промежуточных слоев глубокой нейросети", как вы пишете, возникает свет, темнота или радость?


Ок. Рассмотрим шины автомобиля. Они могут быть накачаны или спущены. В шинах стоит датчик, преобразующий давление в электрический сигнал, который интерпретируется бортовым компьютером, и зажигается лампочка: зеленая, если давление в норме, и красная, если шины спущены. Здесь:

Давление в шинах = ситуация.
Токи в проводах = сигналы.
Цвет горящей лампочки = квалиа, оценка ситуации, подсказывающая поведение: накачивать колеса или ехать, как есть.

Следующая картина: человек на что-то смотрит. Рецепторы глаза посылают сигналы в мозг, мозг их обрабатывает с учетом предыдущего опыта и на выходе выдает класс рассматриваемой ситуации и/или подстраивает гормональный фон. Ощущается это или как просто "я смотрю на объект с некоторой характеристикой", скажем -- синий объект, красивая женщина, фиалковый аромат, или еще и как эмоция, если в результате обработки данных гормональный фон был изменен (радость, грусть).

Наблюдаемая сцена = ситуация.
Нейронные импульсы = сигналы.
Выданный нейросетью характеристика ситуации из заданного множества характеристик + (возможно) изменение гормонального фона = квалиа.

Doctor Boom, посмотрите please сообщение до этого места -- хочу от Вас критики.

Dicson в сообщении #1571961 писал(а):
Попробуйте через количество сигналов или вообще какое-нибудь "количество" выразить свет, темноту, боль или удивление.


Согласны с тем, что мышцы приводятся в движение нейронными импульсами? Напишите последовательность таких импульсов, требуемую для исполнения балета "Лебединое озеро". Все приемы из первой трети учебника демагогии для начинающих я знаю наизусть, поэтому не пытайтесь забайтить меня на этот дешовый развод.

Dicson в сообщении #1571961 писал(а):
"Совокупность сигналов" - это же количество сигналов?


Неа. У Вас есть яблоко, груша, ананас. Это совокупность Ваших фруктов. Сама совокупность:

Код:
{...
яблоко;
груша;
она -- нас (ну или мы -- её)}


А количество это размер совокупности, т.е. три.

Dicson в сообщении #1571961 писал(а):
в таком случае всё наше поведение являлось бы детерминированным, а значит, оказалось бы, что каждый наш поступок был задан ещё в момент рождения вселенной. Это выглядит абсолютно невероятным и никакая вероятностная трактовка развития мира от этой бессмысленной заданности хорошо не спасает.


Это выглядит абсолютно вероятным. Загуглите теорию хаоса, динамическую неустойчивость и т.д. Пока не загуглили -- откуда по-вашему НЕ-детерминированность? Какие факторы ее порождают?

Dicson в сообщении #1571961 писал(а):
мысленно провели итерации


Человеческий мозг не приспособлен искать минимум сложной функции сотен тысяч переменных.

Dicson в сообщении #1571961 писал(а):
Почему же вы считаете, что программа может мыслить? Кровь очищать не может, а мыслить может? По-моему, умение мыслить явно посложнее будет, чем кровь очищать.


А что сложнее -- майнить крипту или кинуть из окна презерватив с водой? Майнить крипту программа умеет, а кинуть из окна презерватив с водой -- нет. Следовательно, второе вроде бы сложнее.

Dicson в сообщении #1571961 писал(а):
Алгоритм, программа - это код, в котором зашифрована реальность в контексте нашего опыта.


Интересно, если купить крупного попугая и надрессировать его на произношение всех вариантов подобных фраз -- можно ли будет в суде стрясти деньги с факультета философии за то, что они не примут попугая в аспирантуру?

Dicson в сообщении #1571961 писал(а):
обратиться к физике работы мозга, попробовать найти там основания "невыразимости"


Страсть как хочется подогнать реальность под сказочку в голове, правда? Понимаааю )

-- 30.11.2022, 00:55 --

mihaild в сообщении #1571963 писал(а):
Так можно считать, что градиентный спуск и проводит эти итерации. При большом желании можете перемножать матрицы в уме

Dicson в сообщении #1571964 писал(а):
Может быть, до поры до времени что-то и можно в уме.


Вместо тысячи слов.....

-- 30.11.2022, 01:09 --

Dicson в сообщении #1571961 писал(а):
(Осторожно, четыре страницы естественного языка.)


Dicson в сообщении #1571964 писал(а):
(Ещё одна страница естественного языка)


Скажите мне такую вещь. Если написанные Вами рассуждения применить к

алгоритмам распознавания светофоров на картинках,
тональности сообщений на естественном языке или
игры в го

-- они сработают точно так же, т.е. исходя из них будет получаться, что все перечисленные алгоритмы невозможны? Если нет, то в каком именно месте Ваших рассуждений сидит "ветвление": в отношении го он говорит "да, возможен", а в отношенит сознания -- "нет, не возможен".

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 01:11 


05/12/14
219
Про квалиа с вами, по-видимому, бессмысленно говорить. Я не понимаю, что вам непонятно.

ozheredov в сообщении #1571966 писал(а):
Это выглядит абсолютно вероятным. Загуглите теорию хаоса, динамическую неустойчивость и т.д. Пока не загуглили -- откуда по-вашему НЕ-детерминированность? Какие факторы ее порождают?

Вот и загуглите. А потом обратите внимание, что я писал о принципиальной возможности, а не о нашем знании: если мышление хотя бы в принципе можно выразить количественно. Что касается моего ответа, то он действительно связан с термодинамикой.

ozheredov в сообщении #1571966 писал(а):
Человеческий мозг не приспособлен искать минимум сложной функции сотен тысяч переменных.

Вот именно, не приспособлен.

ozheredov в сообщении #1571966 писал(а):
А что сложнее -- майнить крипту или кинуть из окна презерватив с водой? Майнить крипту программа умеет, а кинуть из окна презерватив с водой -- нет. Следовательно, второе вроде бы сложнее.

Речь об организме. Берите пример из него, пожалуйста. Я и так с трудом понимаю, что вы пишете и зачем.

-- 30.11.2022, 01:13 --

ozheredov в сообщении #1571966 писал(а):
они сработают точно так же, т.е. исходя из них будет получаться, что все перечисленные алгоритмы невозможны?

Нет, их невозможность из моих аргументов не следует никак. О каком необходимом "ветвлении" вы говорите, я не въехал, извините.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 01:18 


10/03/16
4029
Aeroport
Dicson

Из уважения к Вашему труду по написанию трактата на 5 страниц естественного языка, давайте на время отставим все наши разногласия и непонимания и поговорим исключительно о нем. Ответьте please на вопрос:

ozheredov в сообщении #1571966 писал(а):
Если написанные Вами рассуждения применить к

алгоритмам распознавания светофоров на картинках,
тональности сообщений на естественном языке или
игры в го

-- они сработают точно так же, т.е. исходя из них будет получаться, что все перечисленные алгоритмы невозможны? Если нет, то в каком именно месте Ваших рассуждений сидит "ветвление": в отношении го он говорит "да, возможен", а в отношенит сознания -- "нет, не возможен".


-- 30.11.2022, 01:22 --

Dicson в сообщении #1571968 писал(а):
О каком необходимом "ветвлении" вы говорите, я не въехал, извините.


Если применить Ваши рассуждения к искусственному сознанию, они выдают вердикт "НЕВОЗМОЖНО", я правильно понял? Какой вердикт будет, если применить те же рассуждения к искусственному игроку в Го?

-- 30.11.2022, 01:27 --

DARIUS в сообщении #1571937 писал(а):
В раю в шахматы не играют ,так как после хода e2-e4 можно сдаваться


А как же дебют Гроба? После того как Омариев делает 1.g4, противник может сдаваться, но не хочет.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 01:27 


05/12/14
219
ozheredov в сообщении #1571969 писал(а):
Из уважения к Вашему труду по написанию трактата на 5 страниц естественного языка,

Да это мелочь, что там.

ozheredov в сообщении #1571969 писал(а):
Если применить Ваши рассуждения к искусственному сознанию, они выдают вердикт "НЕВОЗМОЖНО", я правильно понял? Какой вердикт будет, если применить те же рассуждения к искусственному игроку в Го?

Я опять не понимаю. При чём здесь сознание? Сознание (квалиа) - отдельная тема, оно в аргументах никак не фигурирует и никаких ограничений на сознание в искусственных системах представленные рассуждения сами по себе не накладывают.

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 01:39 


10/03/16
4029
Aeroport
Dicson

Хорошо давайте по пунктам

1. Вы делаете некоторое утверждение. Насколько я понял, оно звучит так: "Искусственный разум (ИИ) невозможен". Это правильно?

2. Вы написали аргументы. Используются они так: а) задаем вопрос: "Возможен ли ИИ?"; б) применяем к ИИ Ваши рассуждения; в) получаем ответ: НЕТ.

3. Что будет, если применить Ваши рассуждения не к ИИ, а к перечисленным мной алгоритмам? Ответ будет ДА или НЕТ?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 01:47 


20/11/12
56
Dicson
Ваши идеи во многом пересекаются с выдающейся работой советского физико-химика Николая Кобозева «Исследование в области термодинамики процессов информации и мышления» (1971),эта книга похоже вообще прошла мимо специалистов по ИИ

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 01:52 


10/03/16
4029
Aeroport
DARIUS в сообщении #1571972 писал(а):
выдающейся работой


Чем именно выдается эта работа?

 Профиль  
                  
 
 Re: Еще раз про сильный ИИ
Сообщение30.11.2022, 01:54 


05/12/14
219
ozheredov в сообщении #1571971 писал(а):
1. Вы делаете некоторое утверждение. Насколько я понял, оно звучит так: "Искусственный разум (ИИ) невозможен". Это правильно?

Я показываю, что усложнение ИИ имеет предел, ограниченный сложностью интеллекта человека. То есть фактически речь идёт о невозможности только сильного ИИ. По-моему, и в тексте это очевидно, а самое главное, я здесь уже экран до дыр протёр писать это. Так что перечисленные вами алгоритмы возможны, если уж вы настаиваете на чётком ответе. Правда, про алгоритм распознавания тональности речи я не слышал, но почему бы и нет.

DARIUS в сообщении #1571972 писал(а):
Ваши идеи во многом пересекаются с выдающейся работой советского физико-химика Николая Кобозева «Исследование в области термодинамики процессов информации и мышления» (1971),эта книга похоже вообще прошла мимо специалистов по ИИ

Да? Не читал. Посмотрю. Биологические системы - это действительно открытые термодинамически неравновесные системы. Она и в мышлении некоторые вещи помогает объяснить.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 264 ]  На страницу Пред.  1 ... 4, 5, 6, 7, 8, 9, 10 ... 18  След.

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: talash


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group