romka_pomka писал(а):
Но люди как извлекают информацию? По каким критериям можно сказать, что человек "понял"? Надо же ему задачку дать и посмотреть как решает. Что-то же у него там в голове крутится в это время: "понимание" какое-то.
Обычно, когда занимаются ИИ, такие вопросы не возникают. Это — картина "Возвращение блудного сына" Рембрандта, только у неё почему-то левый нижний угол закрашен синим цветом. Эта задача решается методом обратной задачи рассеяния. Волга впадает в Каспийское море. Чтобы забить гвоздь, нужен молоток. Люди уже имеют понимание (а если их понимание различно, то сначала нужно решить эту проблему, и только потом пытаться научить чему-то машину). Вопрос стоит так: как этому пониманию (которое уже есть) научить железяку? Собственно из этого вопроса задачи создания ИИ состоят чуть менее, чем полностью.
Как пытаются решать? Анализом. Разбивают это "понимание" на части. Увидев задачу, человек сначала распознаёт отдельные буквы, затем отдельные слова из них (хотя, насколько я знаю, человек как-то распознаёт слово целиком, но машине проще по буквам). Этот раздел достаточно развит. Потом делается синтаксический разбор, тут тоже есть много наработок. Потом семантический — фразы соотносятся с контекстом (известные до опыта факты, например, то, что задача из задачника по физике), друг с другом, из фраз извлекается физический смысл. Это самое сложное, именно тут соль процесса. Но кое-что можно сразу сказать. Например, то, что здесь человек использует свой опыт — огромный объём, если сравнивать с объёмом самой задачи (хотя опыт используется на всех стадиях). То, что работают определённые доли мозга. То, что вычленяются отдельные смысловые единицы, которые ложатся на известные шаблоны, а потом эти шаблоны синтезируются воедино.
Но нет одного "волшебного" метода, чтобы успешно создать ИИ для решения какого-то класса задач. Критерий истины — практика. Если какой-то подход работает — значит, его "понимание" верно.