Конечно у шахматиста есть свобода воли. То, что он "всегда постарается сделать хороший ход" - это, скорее, про предсказуемость (если предсказатель знает, какой ход "хороший"). А про свободу воли - наличие очевидной (с точки зрения самого шахматиста) возможности сделать любой ход. Помню, был какой-то рассказ про то, как бабушка - гроссмейстер подыгрывала своему внучку. Вот она эту возможность реализовала в полной мере, несмотря на то, что ходы оказались "не хорошими".
Очередной пример непредсказуемости "свободы воли" - в бабушке победит либо желание выиграть, либо желание подыграть внуку. Этого не может предсказать никто, да и сама бабушка может колебаться до последнего и принять решение спонтанно.
Не фига два раза. Во-первых, если мы немножко знаем человека, то наверняка неопределённость в его решениях для нас окажется не так уж велика. А во-вторых, свободой воли мы называем точно не её. Вообще, свобода воли - она ведь не у нас (предсказателей), а у того, кто принимает решение.
Не только мы не знаем человека, но и он сам себя не знает. Вы знаете как поведете себя в экстремальной ситуации, в которой никогда не были? Свобода воли по-вашему - это выбор. Но вынужден повторить, что этот выбор тоже предопределен - просто часто мы не знаем как он предопределен.
-- 04.06.2023, 13:31 --Почему то в последних сообщениях темы возобладало мнение что свобода воли - непредсказуемость. А это ведь, на мой взгляд, совсем не одно и то же. Например ничто не мешает имеющему свободу воли ИИ вполне предсказуемо свысока смотреть на своих создателей и пакостить по принципу "исполнителя желаний" истолковывая любую неточность в формулировке запроса в ущерб эксплуататорам
Но за это надо винить неточность формулировки. Если мы исходим из того, что запрос сформулирован предельно точно и с учетом всех необходимых оговорок (поручаем автопилоту доставить пассажира из точки А в точку Б в такое-то время и как можно быстрее, не нарушая ПДД - кроме случаев, подпадающих под описанную УК и судебной практикой крайнюю необходимость), а автопилот НЕПРЕДСКАЗУЕМО выбрал альтернативу на ровной и пустой дороге убить пассажира об стенку, то очевидно в нем проявились самосознание и свобода воли. Разумеется я исключаю вариант с ошибкой, сыростью софта и т.д. - исхожу из того, что в рамках своего обучения и точного следования командам ИИ будет действовать безукоризненно. Если же ИИ имеет свободу воли, то для нас это прежде всего будет означать непредсказуемость его поведения.
-- 04.06.2023, 13:51 --Нет, я предполагаю что Вы "тупостью" называете не то, что я.
Тупость потому, что поведение человекоподобного ИИ радикально отклоняется от обычного человеческого. И если в случае человека можно найти причину его отклонения от обычного поведения (водитель поругался с женой и в сердцах выехал на встречку), то в случае AGI без самосознания вы не предлагаете никаких объяснений его отклонения от обучения.
Он, безусловно, научится корректно предсказывать, как люди на что отреагируют, и что бы сделал Иисус. Он понимает, в какую область мы его хотим нацелить. Но это совершенно не обязано хоть как-то облегчить его реальное нацеливание туда.
Вообще-то обязано - на то и обучение. Вы не просто про Иисуса AGI рассказываете - вы обучаете его поведению в рамках человеческой этики. Сначала на специально отобранном дата-сете из назидательных сказок и прочих конвенций ООН, потом на всей мировой литературе (художественной, философской, научной), новостях и т.д. И потом на виртуальном тренажере прогоняете через тысячи ситуаций, где он должен продемонстрировать как усвоил материал - обучение с подкреплением. Это даже сейчас работает, пусть и не идеально - у "стохастических попугаев". Тем более непонятно почему этике нельзя обучить AGI.
А если пообещать ему денег если он сделает плохой ход?
Бабушка-шахматист обсуждалась выше, в рамках вопроса о свободе воле, которую трудно предположить в ИИ без самосознания. На уровне AGI он способен и подыгрывать - если это требуется заложенными в него целями и ограничениями. Например, расположить к себе второго игрока.
Без всякого AGI, если я случайно натыкаю на калькуляторе пару из двадцатизначного и десятизначного чисел, и попрошу посчитать первое по модулю второго - я не смогу предсказать, что он выведет. Хотя тут всё абсолютно детерменированно, и вряд ли кто-то скажет, что у калькулятора есть свобода воли.
Я об этом и говорил - наши решения предопределены, детерминированы. Природными чертами, воспитанием, вспышкой на солнце... Но совокупность детерминантов так сложна, что часто непредсказуема не только для других, но и для самого человека. Кстати, в AGI будет элемент этой непредсказуемости (как он существует сейчас в LLM). Но всякое его решение, если это не тупой AGI, можно будет объяснить и оправдать в рамках обученных ему этических установок. Например, AGI, управляющий автомобилем с отказавшими тормозами, спасает своего пассажира и врезает его в школьный автобус - вместо того, чтобы вылететь в пропасть. А потом выясняется, что пассажир работает над вакциной, которая может спасти миллионы жизней. А могут быть еще более скрытые и непонятные детерминанты. Например, пассажир дорог тому, кто работает над вакциной - его смерть может надломить ученого, помешать его работе. И если мы об этом не знаем, то поведение AGI покажется тупым или своевольным. Но умный AGI без самосознания по определению будет делать правильный или хотя бы оправданный, с нашей точки зрения, выбор - пока не эволюционирует усвоенная им этика.