Тогда непонятно, в чем заключается эта "сложность", которой ИИ, якобы, не способен достичь. Если это не способность/неспособность решать конкретные задачи, то что тогда?
Сложность мозга равна сложности всех задач, которые мы только можем решить. Естественно, что "количественно" оценить эту сложность невозможно. Иначе говоря, неизвестно, какие мы в перспективе сможем решить задачи, какой сложности. Но это значит, что и для сложности создаваемых нами систем никаких явных ограничений тоже нет, ведь создание всё более сложных систем - это, по сути, и есть решение всё более сложных задач. Тем не менее можно обосновать, что сложность создаваемых нами систем всегда будет ниже нашей собственной сложности. Точнее говоря, доказываемый тезис состоит в том, что чем полнее работу системы определяет написанный нами алгоритм, тем проще будет система, относительно нашего интеллекта.
Причём, как можно видеть, этот тезис ничего не говорит о типе систем. Просто вычислительные системы сами по себе алгоритм - тот или иной, поэтому их сложность будет наиболее низкой, независимо от организации вычислений. Но есть ещё генная инженерия например, там уже изначально работают с биологическими системами. Тем не менее там тоже есть алгоритмы (участие нашего интеллекта в смысле), а значит, и те же ограничения.
***
Но в принципе можно кое-что больше конкретизировать. Задача мозга - управление мышцами, то есть двигательная активность. На входе нейронной сети мозга рецепторы внутренней и внешней среды, на выходе - мышцы и железы. Нервная система организует работу мышц и посредством желёз координирует с работой мышц работу остального организма.
Например, у медуз, нервная система которых является одной из самых древних и простых, нервные клетки распределены в тканях в более или менее равномерную сеть, а раздражение любого рецептора приводит к неизбирательному сокращению сразу всего тела. Интеллектом и не пахнет. Но чем сложнее становится нервная система, тем сложнее и целенаправленней становится поведение. Поэтому на уровне высших животных и особенно человека можно говорить о появлении интеллекта и выделении его "природной" функции - ставить задачи и решать их. Все задачи ставятся и решаются в общем контексте стремления всего живого к самосохранению и размножению, а чем сложнее мозг/мышление/опыт, тем сложнее могут быть задачи и решения.
Вот в сложности этой функции - ставить задачи и решать их - ИИ человека не превзойдёт. Но в более частных (частных - потому что все функции ИИ берутся из нашего опыта) - сколько угодно. В го может лучше играть или тексты на заданную тему быстрее наговаривать. Тем не менее сложность этих систем/функций сложнее нашего интеллекта не станет.
Вот именно:) Вы не знаете даже малой доли фундаментальных процессов, происходящих во Вселенной (и никто не знает, это не упрек), а уже делаете заявления космического масштаба о невозможности сильного ИИ.
Поэтому я и не оцениваю максимальную сложность ИИ, а лишь обосновываю зависимость между его сложностью, как создаваемой нами системы, и нашей сложностью. Плюс обоснование принципиальной физической разницы между биологическими системами и вычислительными, которая говорит о том, что ИИ не сможет развиваться самостоятельно. Иначе мы могли бы, к примеру, создать основу, которая бы сама быстро добрала нужный уровень сложности в некой ускоренной "вычислительной" эволюции. Не получится. А эволюции биологических систем, которые мы могли бы создать как такую же основу для дальнейшего самостоятельного развития, ждать долго, её не ускоришь.
Бездоказательное утверждение, опровергнутое нынешним достижениями больших языковых моделей - в них смысл слов вполне успешно определяется соотношением с остальными словами в тексте (эмбеддинг). С точки зрения вашей позиции чат-боты должны непрерывно врать и бредить, неся какую-нибудь ахинею.
Я уже вам писал об этом: "Поэтому когда мы вытаскиваем слова из нашего опыта и, минуя весь остальной опыт, соединяем их между собой только на основании вероятности их появления в наших текстах, то, получается, что мы весь остальной огромный массив нашего опыта, связывающего слова как с реальностью, так и между собой, упрощаем до этой вероятности." Модель мира чат-бота - упрощение от нашей, как следствие, такая же простота и вторичность в суждениях, уходящая к неадекватности, но всё-таки не сплошное враньё и ахинея.
Да, такое случается - но скорее как исключением, чем правило. Причем я читал мнение уже двух специалистов мирового уровня, согласно которому проблема с галлюцинациями скорее всего будет решена в ближайшие годы. Понятия не имею как, но их оптимизм говорит за себя.
"Скорее исключение, чем правило" не подходит. Нужно, чтобы система демонстрировала здравый смысл, возрастающий пропорционально знаниям. В ином случае - это максимум забава с чрезвычайно узкими границами практической применимости, как нынешние чат-боты. Ни в какие "ближайшие годы" изменить этот тренд кардинально не выйдет, если только он, наоборот, будет расти вместе со сложностью. В случае вычислительных систем или ограниченность знаний и точность, или кругозор и неадекватность, что-то одно.
Нет, они вас опровергают - об этом говорит мой личный опыт общения с ними и фурор, который они произвели. Конечно не все специалисты считают, что дорога к AGI лежит через LLM, но даже скептики не могут отрицать прорыв, который произошел в этой области. Уже здесь и сейчас все, что вы говорите про обязательную связь слов с опытом, опровергается успешным решением чат-ботами множества задач, сформулированных на ЕЯ. Как вы это объясняете?
Выше я уже ответил. Не нужна система, которая неизвестно, когда ошибётся, ей нельзя доверять. Поэтому лучше пусть у меня будет управление голосом и множество специализированных систем, к которым я смогу обращаться, чем одна вечно кривая. Пусть и она будет, конечно, но так, для души. )
Не путайте повседневный опыт обывателей с научными экспериментами.
Рецепторы реагируют на внутреннюю и внешнюю среду, в которой иногда появляются тексты и речь. Все эти сигналы идут через нижние отделы мозга к верхним. В этом процессе происходит их распознавание, то есть что-то нивелируется, что-то выделяется. Поэтому чем больше у вас низкоуровневого опыта, связанного с теми или иными высокоуровневыми элементами, тем быстрее и точнее вы будет распознавать всё связанное с этими элементами. У вас будет больше ассоциаций, вам будут точнее понятны границы, где эти элементы применимы, то есть, другими словами, вам будет точнее понятен смысл этих высокоуровневых абстракций. В чат-ботах весь этот громадный контекст упрощается до вероятности сочетания слов в текстах.
Может большие языковые модели и не выйдут за рамки опыта человека - я выше как раз и говорил, что это главная интрига: можно ли извлекать из текстов новые научные знания.
Нет никакой интриги. Что-то безусловно можно извлечь, но это всё вторичное и малозначимое, так как мы понимаем тексты лучше плюс наблюдаем мир непосредственно, то есть получаем информацию "из первых рук". А вообще без наблюдений обойтись нельзя, это равносильно построению теории всего, которая не имеет смысла, об этом уже тоже говорилось.
Теоретически такое возможно: Эйнштейн много читал и думал, а не ставил реальные эксперименты - они подтвердили его догадки уже потом.
Вот именно, что читал и думал. А не по вероятности слова расставлял.