А разве ИИ не может:
1. Взять уже имеющийся человеческий опыт за стартовую точку, не проходя все заново?
Наш опыт мало чего говорит о том, как конкретно он сам возникает у нас голове. Точнее, наш опыт говорит о том, что механизм его появления в голове вычислительными средствами воспроизвести можно только очень упрощённо. Поэтому взять наш опыт ИИ может, а вот сколько-нибудь приумножить - уже нет. Более того, опыт, который у нас можно взять, это нечто формализованное, то есть то, что можно сообщить, показать. Но этот опыт далеко не равен всему опыту человека. Поэтому даже и взять много не сможет.
2. Эволюционировать в
раз быстрее человека?
Для эволюции система должна быть открытой. Вычислительные системы не такие.
3. Получать опыт самостоятельно?
Это пожалуйста. Только если сеть после обучения выдаёт бред, то это тоже опыт.
А в некоторых вещах уже превзошел человека.
Все эти "вещи" внутри нашего опыта. Мы выделяем в своём опыте задачу и создаём систему, которая находит решение задачи "самостоятельно", в процессе обучения, то есть как будто превосходя человека именно в интеллекте. Но на самом деле как раз за счёт качественно более высокой сложности человек способен выделить в своём опыте и задачу, и придумать систему, которая, оставаясь много проще человека, в процессе обучения только лишь выявит в задаче некоторые частные закономерности, не замеченные человеком.
Человек-то тоже не особенно может оценивать результаты своей работы. Кто случайно шел в нужном направлении - выжил, кто в другом - не выжил. Где тут "вменяемое" направление? Мы, например, эволюционируем во "вменяемом" направлении?
Если у ячейки Бенара вдруг появится какая-нибудь лишняя завитушка, то она тут же сама собой исчезнет, так как снижает эффективность обмена ячейки со средой. Или вся ячейка разрушится, если флуктуация зашла слишком далеко. Организм - это в целом такая же физическая система, как ячейки Бенара. Разница в том, что связь организма со средой менее прямая, более опосредованная. Тем не менее, будь то что-то лишнее в организме, неадекватность в поведении или некое противоречащее реальности конкретное знание - это всё тоже снижает эффективность обмена организма со средой, как и лишняя завитушка у ячеек Бенара. Поэтому всё лишнее быстро исчезает - в ходе эволюции, если речь идёт об организме или общем устройстве мозга, или в ходе жизни животного, если речь идёт о некоем конкретном ошибочном знании.
Например, ритмы мозга - это следствие синхронизации хаотической активности нейронов. Синхронизация - это самоорганизация. Самоорганизация - это гомеостаз. Ошибочное знание, если смотреть снаружи мозга, - это некое неадекватное среде поведение, а изнутри мозга - это "лишняя завитушка" в его активности, мешающая эффективному обмену со средой. В результате неверное знание, которое мешает жить, само собой быстро исчезнет, а такое, которое эффективному обмену помогает, наоборот, будет развиваться. Как следствие, и эволюция, и поведение сами собой направленны - туда, где больше ресурсов или меньше сопротивление среды. Вот это и есть "вменяемое" направление. Единственное вменяемое из всех возможных, и мы по нему идём.
Эффективность обмена со средой - это тот критерий, который позволяет нам отличать адекватное представление о мире от неадекватного. Адекватное позволяет вести обмен со средой более эффективно, так как позволяет предвидеть события и выстраивать стратегию поведения таким образом, чтобы добиваться большего с меньшими усилиями. Другими словами, адекватное представление о мире способствует росту качества жизни.
У вычислительных систем этого критерия нет и быть не может (они не открытые системы, то есть не встроены в среду так глубоко, как мы). Поэтому лишнее им не мешает, неадекватность их не трогает, верное у них знание или нет, им всё равно. Радости жизни им неведомы. Из-за этого они во всём зависят от нас.
Только я считаю это не про клеточный автомат, а про ИИ, который, в отличие от игры "жизнь", подключен к реальному миру.
Мы не сможем построить ИНС сразу из любого количества нейронов, чтобы сразу появился некий очень умный ИИ. Возможных вариантов и архитектуры, и обучения слишком много. А последовательный путь приведёт к постоянному нахождению ИИ глубоко в контексте нашего опыта.
Уверяю Вас, что "элементарный уровень материи" для устройства человеческого мозга имеет столь же малое значение, как и для устройства компьютера.
Тогда вам надо доказать, что поведение в точке бифуркации предсказуемо. Или что в мозге нет бифуркаций.
Разумеется, не всё поведение ИИ "задано нами строго". Но вовсе не потому, что есть квантовая неопределённость на уровне транзисторов или космическая частица может пролететь, а потому что при обучении ему на вход подаётся огромный объём информации, который мы в деталях отнюдь не контролируем.
Я квантовую неопределённость и не имел в виду. Но непонятно, почему вы уверены, что развитие пойдёт именно в "ту" сторону, если "не тех" несравнимо больше?
У нас в определении не сказано, что система "должна принимать решения сама" (это непонятно что значит). У нас сказано, что она должна осознавать свои решения как собственные. Вот это и есть свобода воли. Если осознания нет, значит нет свободы воли. Если осознание есть, значит свобода воли есть.
Я ваш подход понял. Но вопрос в том, может ли быть свобода воли реальностью, а не только иллюзией? Потому что если все наши решения заданы, где же свобода? Свобода воли, свобода выбора - это когда я сам принимаю решения, они ничем не заданы. Как это возможно, что это значит, как совместить с тем, что есть опыт, вне которого решения не будут адекватными, и с тем, что связь со средой есть даже в точке бифуркации? Как свобода выбора может быть в системе, которая, по сути, нигде и ни в чём неотделима от среды? Но как раз именно в таких системах и может. С тем условием, о котором я сразу написал - вопрос свободы воли будет закрыт, но яснее свобода воли не станет. Это следствие парадоксальности самой идеи свободы воли.
Ваш "парадокс" решается очень просто: Заранее зная, что мы собираемся сообщить предсказание подопытному, мы делаем предсказание с учётом этого. Это означает, что подопытный не станет "специально поступать по-другому". Даже если априорно у него было такое желание, получается, что в предсказании будет что-то такое, что удержит его от этого.
Смысл парадокса был в том, что поведение непредсказуемо. Примерьте к себе. Вам измерили активность мозга, или что там в гипотетическом мире измеряют, и говорят: "Согласно нашим расчётам вы сейчас задумчиво постоите 5,73 секунды, потом возьмёте со стола ручку, повертите её в руках и положите на правый край стола". Что вам может помешать не брать ручку, не вертеть её, не класть именно на правый край стола? Да ничего. Поэтому предсказать поведение в принципе невозможно на сколько-нибудь долгий срок, а всё же "позволит" это сделать тоже только что-то противоречивое.
Это вариант, условно говоря, Александра Сергеича, при котором человек, меняющий свое поведение, находится в зоне или, как еще говорят, в бассейне притяжения аттрактора диссипативной системы - того предсказываемого конечного(в смысле асимптотического
) состояния, к которому эволюционирует система.
Осталось предсказать этот аттрактор. )
Пер Бак сравнивает акты восприятия с отдельными песчинками, а то, что осознается и приводит к реакции, — с гигантскими лавинами. При этом, естественно, система стремится быть в точке бифуркации, в которой спектр реакций может быть
очень широким."
Можно и так сказать. Только "песчинки" в таком описании могут путать. Их можно принять за нечто конкретное, а в реальности эту песчинку не найти. Ведь такой песчинкой может быть не только сигнал рецептора, но даже самая ничтожная разница в степени их активности или времени активизации. То есть песчинкой может быть всё.