2
robezЦитата:
У всех таких моделей есть предел развития – «Геделевский аргумент», как бы мы ее не усложняли неизменно что-то останется за кадром, а сама модель будет скорее искажать, чем прояснять что-то. В противоположность им «модель Каминского» чисто математическая, дает точное определение сознанию, но теряет возможность отражать реальность в каком угодно виде.
По мне, уж лучше геделевский аргумент. Быть может, вы знакомились с Геделем в неподходящий условиях, скажем, на лекции по философии, и поэтому у вас могло остаться ощущение мистичности. На самом же деле здесь все четко и по-научному...
В целом, назависимо от подхода, та или иная трактовка "неполноты" наверняка существенна для рассуждений об интеллекте, сознании и т.д. Может быть, реальный мозг достаточно часто сталкивается с небольшими артефактами непознаваемости; может быть в этом лежат корни интуиции (если воспринимать её шире чем пробный перебор вариантов), религии и пр.
И, кстати, сомневаюсь, что модели Каминского дают удовлетворительное определение сознания...
Цитата:
Потому разговоры про саморазвивающиеся клеточные автоматы тут просто не уместны. Как определить принципиально непознаваемое для саморазвивающегося клеточного автомата?
Разумеется, в конечном счете, самомодифицирующиеся автоматы тоже страдают от геделевских логических ограничений. Однако, самомодификация привносит немало ценного в такую концепцию. Она напрямую отражает инкрементную обучаемость интеллектуальных систем, в тоже время решая (обходя) часть вопросов, связанных с геделевской неполнотой. Грубо говоря, одно дело -- если ИИ полностью познав себя научится предсказывать свои действия в определнной ситуации, а по достижению такой ситуации сделает все наоборот приведя тем самым к противоречию; и совсем другое дело -- если ИИ-программа вносит исправления в свой код, ориентируясь на неухудшение значения "целевой функции" (известно, что такая примитивная стратегия вовсе не обязательно является жадной и может вести к глобальному экстремуму).
В общем, мне совершенно непонятна сущность ваших возражений. Я не отвергаю существования пределов познания (при правильно формулировке этого понятия), а просто выражаю крайнюю настороженность по отношению к философии Каминского, может быть потом как-нибудь разберусь.
Цитата:
Иначе у философов сразу возникает желание разделить и противопоставить сознании материю
Дык, это и так разные вещи. Софт & хард. Почему бы их и не различать...
Цитата:
Вы описали эксперимент, когда трехмерный объект отбрасывает тени (проекции) и у наблюдателя стоит задача по проекциям восстановить трехмерный объект. Задача выполнима только в случае правильного соотнесения проекций друг с другом и наблюдатель должен уметь в воображении представить себе объект как минимум.
Не соглашусь с вами. В большинстве случаев решать задачу "реконструктивной томографии" и полностью восстанавливать объект по его проекциям не нужно. Отдельные свойства вполне выводимы из частичной информации об объекте.
Однако здесь есть ряд вопросов. Например. Какого минимального подмножества проекций достаточно для реконструкции? Или такой вопрос. Набор проекций однозначно идентифицирует объект или же разные объекты могут давать один и тот же набор?
Цитата:
Объединение таких частей у человека не получается принципиально и человек не может себе представить как все основания математики могу работать одновременно в некоторой формальной модели.
Та же история. Локальность познания существенна и примеры немоделируемых объектов привести практически невозможно. Да, некоторые детерминированно-хаотичные процессы может быть и моделируются лишь копированием, но и в этом случае их иногда можно изучать приближенно, описывая свойства аттракторов. Контрпример этим словам я уже пытался привести (повороты на решетке), но там тоже пока полной ясности нет.
Цитата:
Если бы группа самых лучших 10-битных ученых с огромной осторожностью принялась изучать предмет с 20-битной функциональностью с целью составления его модели, то произошло бы расщепление описаний, расщепление функциональности. Нарушилась бы воспроизводимость экспериментов, наблюдалась бы невоспроизводимость результатов и непредсказуемость результатов. Любые составленные инструкции переставали описывать его работу а потом вдруг опять неожиданно начинали правильно предсказывать поведение.
Выше я парочку вопросов приводил об изучении объектов по их "проекциям" (частичным моделям). Это ряд можно дополнить, например, таким вопросом. Всегда ли априорно заданный набор проекций дает при реконструкции физически (или в каком-нибудь другом смысле) реализуемый объект? Кажется, ответ на этот последний вопрос должен быть отрицательным, в пример же можно привести картинки Эшера (отдельные части каждой такой картинки вполне понятны и привычны, но в совокупности эти части дают невозможный объект). :)
Цитата:
Для меня сознание как процесс - это не функция или функциональность в любом проявлении, а противоположность или противонаправленность энтропии, возможно даже без всякой целевой функции.
Хм, интересно. В-принципе, это как-то можно связать с творчеством -- энтропия уменьшается при создании новой информации. Но тут все-таки хотелось бы услышать ваши пояснения, ведь энтропия - очень "скользкое" понятие...
(2robez)
У вас там ссылка на Гутнера испорчена, попросите модератора починить. За ссылку на Лефевра спасибо, но я пока не читал.
И, пожалуйста, цитируйте правильно (кнопки цитата/вставка). Не перенимайте мою выработанную годами вредную привычку. :)
2
EvgenyGRЦитата:
Единственный выход игроков чтобы улучшить свои шансы путем согласия или несогласия стартовать из предложенной точки, это «выявить» какую-то аналогию между успешными точками.
А что если взять что-нибудь очень сложное, например проблему
(итерируем функцию, которая четное число делит на два, а нечетное утраивает и увеличивает на единицу; спрашивается, всегда ли такой процесс приведет к единице, а фактически, к циклу
)?
Кстати, на этот раз я целиком и полностью согласен с написанным вами в том сообщении о J-функциях. А ранее упоминавшиеся теоремы о реконструкции аттрактора даже говорят, сколько нужно J-функций. Непонятно только, причем здесь аналоговые машины... :) Извините, если вас расстраивает такое ужасное непонимание; видимо я слишком помешан на обычных компьютерах и поэтому не вижу преимуществ возможных альтернатив.
Цитата:
Вы использовали аналогию "эволюция ординаты точки, бегающей по-кругу" (задействовали аналоговую машину из своего разума). А если бы этой аналогии не было?
В-принципе, даже в случае с программируемым ИИ (противопоставляемом сейчас аналоговому), полезно иметь (вообще, расширяемый) набор примитивов-абстракций (символов, снабженных семантикой) --- вроде той-же окружности или функции синуса --- из которых потом можно будет собирать нужные модели. Собственно, я то не против вашей теории (хотя, возможно, понимают её несколько неправильно), я лишь против вот этого самого противопоставления цифрового versus аналогового.
P.S.: Последнее ваше сообщение мне кажется удалось распарсить и более-менее понять -- прогресс, однако. :) Правда, вместе с тем накопились и некоторые вопросы; видимо придется попозже их сформулировать (пока они слишком расплывчаты) и задать... Сейчас же, честно говоря, очень увлекся идеей самомодифицирующегося ИИ. Я понимаю, что ничего выдающегося достичь не получится, но мне, тем не менее, эта тематика кажется очень интересной. Оказывается, эта концепция очень известна, причем под разными именами, машина Геделя (не путать с машиной времени Геделя), метаобучение, тот же seed ai. Да и к эволюции определенное отношение имеется; может быть, это позволит глубже разобраться в вашем подходе. Вот к примеру такая статейка интерсная на глаза попадалась: J.Schmidhuber, Ultimate cognition a la Goedel.