Письменность - это не просто средство хранения и приумножения знаний, это вот именно что их источник.
Действительно, тексты источник знаний. Не стану спорить. Потому что в нейронных сетях вся структура сети - это одновременно и опыт, и мышление, а значит, "источником знаний" является весь опыт сразу и прочитанные нами тексты в том числе. Я об этом уже писал в предыдущем посте. Только это вас как раз опровергает.
Слова, тексты, формулы - это такие же объекты нашего опыта, как и любые другие. При этом в опыте всё связано. Поэтому смысл любого объекта возникает более или менее в контексте всего остального опыта.
Как абстракции высокого уровня, слова, тексты, формулы требуют сложного мышления. Но сложное мышление - это и сложный опыт, см. выше, почему. Таким образом, само наличие речи - это одновременно и более объёмный и сложный контекст более низкоуровневого опыта. Иными словами, слова, тексты, формулы, как абстракции высокого уровня - это объекты сами по себе с реальностью практически уже никак не связанные, то есть сами по себе максимально лишённые какого бы то ни было смысла, поэтому понимание их смысла требует пропорционально объёмного и сложного контекста более низкоуровневого опыта.
Поэтому когда мы вытаскиваем слова из нашего опыта и, минуя весь остальной опыт, соединяем их между собой только на основании вероятности их появления в наших текстах, то, получается, что мы весь остальной огромный массив нашего опыта, связывающего слова как с реальностью, так и между собой, упрощаем до этой вероятности. Плюс суждения ИИ перестают отражать меняющийся мир, так как в нашем опыте связь между словами опосредована всем остальным опытом, а опыт постоянно меняется.
В результате опыт чат-бота - это некая обобщённая, простая и статичная модель наших знаний, из-за чего суждения ИИ теряют одновременно сложность, глубину и личностность, присущую нашим суждениям, а также тот уровень связи с реальностью и новизной в ней, которая присутствует в наших суждениях. В итоге все те проблемы, которые есть у чат-ботов.
Если же ИИ будет обучаться постоянно и бесконтрольно, как мы обучаемся на каждом тексте и в каждом диалоге, то его обучение быстро станет деградацией. Но на этот счёт есть отдельные аргументы, связанные с физическими особенностями биологических и вычислительных систем.
Попытки примирить эту абстракцию с реальностью только мешают - возникает пресловутый когнитивный диссонанс. Это касается и физики - начиная с ТО и особенно квантовой механики она ушла в такую абстракцию, что знание реальности только мешает усвоению контр-интуитивной физики.
Даже самые абстрактные области математики имеют в основании школьную программу и общие для всех людей представления о разумном и логичном, взятым изначально из общего для всех реального мира. Что касается "контринтуитивного" КМ или ОТО, то, по-моему, в данном случае они не пример, так как ТО следует из достаточно очевидных соображений, а КМ из простых опытов. Поэтому как раз связь с этими очевидными обстоятельствами и помогает их понять.
Только не надо мне загонять обратное! Иначе бы эта тема не существовала: мы бы уже давно разобрались в теме и разошлись. Но мы наблюдаем иное - постоянное самокопание на месте, переливание из пустого в порожнее.
Так начните опровергать аргументы, а не под коврик их заметать.
То есть знания порноактрисы с 2-мя классами образования, которая зарабатывает по овердофига килодолларов в секунду за то, что её дигидонят в дымоход 24/7, более адЫкватны реальности, чем знания профессора с з/п 120К(рублей) в месяц, я все правильно понял?
Попробуйте переписать этот бред в нормальных выражениях. И, пожалуйста, поподробнее разверните связь между тем, что спрашиваете, и тем, что, по-вашему, написано у меня. Пока я этой связи не наблюдаю.
Потому что проводя их 30 лет назад Вы легко могли бы прийти к выводу, что машина никогда не обыграет человека в шахматы, а 10 лет назад - что машина никогда не научится распознавать речь лучше человека.
Нет, не смог бы. Именно потому, что никакие конкретные задачи в моих аргументах не рассматриваются.
Вы, кстати, в курсе, что GPT-3 в смысле алгоритма проще древних эвристических чатботов?
Об этом у меня и написано. Чтобы сделать лучше, потребовалось время. Дело же не в сложности системы самой по себе, а в сложности исполняемой функции. По мере приближения сложности исполняемой функции к сложности поведения человека, каждое новое усложнение будет требовать всё больше времени.
Dicson, извините, пока Вы не напишите в явном виде, какую конкретно задачу системы ML решить не смогут, я не вижу смысла читать очередной раунд Ваших пространных рассуждений непонятно о чем.
Вы хотите сказать, что пока я такую задачу не приведу, то утверждать, что СИИ невозможен, я не могу? Могу. Так как невозможность СИИ исходит из других аргументов. И критерий сильности/слабости тоже есть, я вам его уже приводил, ни с какими конкретными задачами он не связан, но тем не менее является более точным. Других критериев у этой задачи всё равно не будет. Ну и замечу, что в ответе вам речь шла об ограничениях систем, обучающихся только на текстах. В этом случае аргументы более простые, которые я и привёл (или см. начало этого поста). Тем не менее и тут формулировка конкретных задач не требуется.
***
Возможность СИИ, по-моему, если не уже маргинальная идея, то очень близка к тому, чтобы таковой стать. Её противоречивость становится очевидной даже на уровне вопросов, которые требуют ответа, если СИИ возможен. Где предел сложности систем, которые мы можем создать? Созданный нами СИИ создаст ещё более сложный СИИ и ещё быстрее? Сколько будет длиться эта всё ускоряющаяся последовательность? Или мы сразу создадим самый сильный СИИ? Мир нелинеен, а с созданием всё более сложных систем всё линейно? Почему в создании систем нам потребовалось обучение? Чем за это приходится платить? Нет ли здесь какой-нибудь зависимости? Вычислительные системы противоположны биологическим по всем параметрам, не должно ли это иметь какое-нибудь значение? В общем, вопрос не в том, что СИИ невозможен, а только в том, как это грамотно обосновать.