Вы не ответили.
Согласен с
mihaild.
Программы так перестраиваться не умеют, это факт. И дело здесь не философии, а в том, что речь идёт о принципиально разных физических системах. Это уже обсуждалось в начале темы.
Как "так"? Как нейросети в головном мозге? Умеют.
Вы пишете о необъективности сознания
Неправда, я пишу об необъективности квалиа, которое ну совсем не сознание.
Что касается параметров, которые важны в описании мозга, то все они, естественно, неизвестны. И не могут быть известны.
Координаты и скорости всех молекул газа тоже никогда никому не известны, что не мешает пользоваться законами термодинамики.
На всякий случай, уточню, что под сознанием я понимаю наличие субъективного опыта (т.е. квилиа),
Это плохое определение, не указан смысл слова "субъективного", получается любая молекула имеет такой опыт, она ведь участвовала в каких-то химических реакциях и изменялась в них.
Судя по вашим словам вы совершено явно отсылаетесь исключительно к биологическим системам, могущим иметь такой опыт, хотя та же бактерия (которая по вашему его имеет) может хранить часть его в ДНК/РНК, которые просто молекулы, т.е. фактически как раз ДНК/РНК тоже имеют квалиа, а это уже как-то ну совсем перебор.
И тогда абсолютно непонятно почему опыт не может кодироваться битами/байтами в виде зарядов на флешке. Выходит что и флешка имеет субъективный опыт, даже без компьютера.
Нет, плохое определение.
Если нет такого критерия отличия, - то почему Вы утверждаете что СИИ (т.е. ИИ имеющий сознательный опыт) возможен?
Я говорю не о ИИ с сознательным опытом, а об сильном ИИ.
Критерия же нет у вас, не у меня. Я свой критерий (вообще говоря общепризнанный) сформулировал, чем СИИ (сильный ИИ) отличается от ИИ.
А если для "отсутствия его проигрыша людям в любой (т.е. во всех проверенных) области" - компьютерам вовсе необязательно иметь сознание, то из этого следует очевидный вывод - сознание живых существ (квилиа) построено на совершенно других принципах.
Сознание - не квалиа!
И вывод очевидно другой - что и у других организмов мы понимаем под сознанием что-то неправильно или другое или вообще оно необъективно, раз не можем отличить его отсутствие от его присутствия.
А если Вы с этим не согласны, то приведите пример как можно создать ИИ который будет иметь 1% или 0.000....01% сознательного опыта (человека, или хотя бы бактерии).
Приведите определение
сознательного опыта. А то любая молекула его имеет.
Ну чисто формально состояние каждой клетки априори очень большое, и то, что его можно свести к не слишком большому числу параметров, так нахаляву получить нельзя, надо детально в нейрон залезать. Но вроде бы если залезть, то получается (по крайней мере 10 лет назад получалось, не знаю, не изобрели ли с тех пор новых проблем).
Ну я конечно несколько упростил, но вроде бы нейрон достаточно простая штука, если рассматривать как чёрный ящик, реагирующий на внешние сигналы (не только синапсы). Да, не простой сумматор с весами как сначала думали, но и не сильно сложнее, и вроде как без памяти внутри, память как я понимаю (возможно и неправильно) обеспечивается изменением проводимости синапсов, а не внутри нейрона. Порядок сложности я накинул на химические сигналы и на нейроглия (появляются данные что и они участвуют в обработке информации, а не просто поддержка жизнедеятельности нейронов). В общем да, согласен, рукомахательство. Но со стороны оппонентов нет даже таких грубых оценок, даже определения сложности.
С другой стороны оценка под квадриллион (ну или сотни триллионов) параметров близка к правде по мнению специалистов, они прямо говорят что текущие нейронки достигли где-то 1% сложности ЕИ, учитывая что сознание занимает по их же оценкам порядка 10%, как раз и получается три порядка разницы.
Компьютер, напичканный информацией о гравитации, не станет гравитировать.
Это кстати тоже неправда: информация вполне имеет вес/массу и соответственно является источником гравитации. Потому же кстати есть верхний предел на плотность информации, иначе всё схлопнется в чёрную дыру. Только вес байта настолько мал, что обнаружить его пока не удалось, слишком мало у нас байтиков в каждом компе. Ну и гравитировать будет любая информация, не обязательно про гравитацию.
Что здесь неясного?
Всё. Определение "шага/операции"? В каких единицах измерять время? Почему в них? И вот это тоже:
Вот создание СИИ невозможно никакими методами, ни за какое время, никаким количеством операций. Такая это сложная штука.
Это очевидно неправда: природа и общество справляется с созданием сильного И (ЕИ) за конечное количество операций и конечное время. Так что сложная, но не невообразимо сложная как вам почему-то кажется. И можно указать верхние оценки сложности и по ним прикинуть когда компы и нейронки доберутся до этой границы. Нет тут никакого принципиального запрета, как бы вам ни хотелось. Возникнет ли у них сознание и станут ли они СИИ - вопрос. И больше даже не технический, а определений, сможем ли мы хоть как-то отличить СИИ от ИИ и от ЕИ. Я вангую что не сможем, как уже сейчас не можем отличить ИИ от ЕИ во многих вопросах (типа распознавания изображений или перевода текстов). Т.е. средний человек с улицы не может, специалисты то конечно знают на что смотреть.
- Для пары "рукотворный объект" - "автор симулирующей его программы" автор всегда сложнее (это придется доказать!)
Не пойдёт - Вы аксиоматизируете превосходство ЕИ над любыми ИИ/СИИ, хотя это и собираетесь доказывать.
Плюс биологическая эволюция прямо опровергает этот тезис: в процессе создаются всё более сложные системы, т.е. сложнее автора/родителя. Т.е. есть минимум один пример когда утверждение точно не работает. И нет никаких принципиальных запретов устроить эволюцию небиологических систем (да хоть объектов в игре Конвея Жизнь!) и получить такое же самоусложнение систем без всякого воздействия автора начальной конфигурации или установленных законов. Просто это ну очень долго, миллиарды лет и триллионы шагов каждую секунду, столько нам ждать лениво. Хотя отдельных примеров самоусложнения систем под воздействием внешних факторов у нас полно, да любая нейронка им является: изначально это просто регулярный массив одинаковых элементов и целевая функция, а в процессе обучения происходит усложнение внутренней структуры, уже без влияния автора и создателя.
Ровно потому же и все аргументы о невозможности создания СИИ сложнее автора (ЕИ) опровергаются прямыми примерами обратного. Но философам не понять, у них фетиш ЕИ (и строго биологической основы любого интеллекта/сознания/квалиа и ещё кучи бессмысленных в их аксиоматике слов).
-- 23.03.2024, 16:15 --Хотя отдельных примеров самоусложнения систем под воздействием внешних факторов у нас полно,
Например продемонстрировано самоусложнение химических веществ вплоть до появления биологических молекул (даже аминокислот) из однородной смеси простых исходных веществ. До появления РНК не добрались, но это дело лишь времени, принципиальных запретов нет. А РНК - это уже точно живое. И дальше эволюция и ЕИ.