Если мы придумаем принципы тестирования нервной системы, которые оценивают интеллект от низших животных до человека в плане решения не конкретных, а общих(с варьирующимися условиями) задач, а затем по этим же тестам будем тестировать AI, тогда это будет объективная оценка насколько наш AI общий(general).
Я придумал отличный принцип: спросить у
mihaild. Это совершенно объективный способ, потому что я обещаю всем спрашивающим давать один и тот же ответ.
Есть хороший термин LLM. Просто говорим по факту, LLM научили решать такие-то и такие-то задачи
Это хороший подход (и лет 10 назад термин "ИИ" в серьезных кругах не употреблялся, и я не понимаю, когда это сломалось).
некий общий ИИ, который якобы думает как человек и его везде опередит
Первое ("думает как человек") оставьте философам, потому что всем остальным очевидно, что процессы думания у моделей в кремнии и в углероде разные. Где-то между ними можно при желании найти сходство, но непонятно, зачем.
А вот второе - другой вопрос. Если система может успешно решить задачу "вот тебе доступ в интернет, сгенерируй последовательность токенов, чтобы сделать скрепку" - то можно спорить о том, опережает она человека или нет до хрипоты, но, скорее всего, спор придется прекратить по техническим причинам довольно быстро.