(mserg)
Во-первых, если речь идет о математике, то чтобы «случилась» задача, должен быть определен языка: алфавит, операции/правила и все такое прочее.
Да, алфавит и некоторый базовый язык должен быть задан. Думаю, что это вполне естественное требование. Например, если Вам дать задачу на китайском языке, Вы ее не решите.
Поэтому для самой «способности решать задачи» достаточно правильно применять правила плюс регулярный «просмотр в ширину» (патологии, для простоты, здесь не рассматриваем).
Для способности решать задачу недостаточно
просто применять правила. Т.е. о каких правилах речь? В зависимости от правил м.б. разный ответ.
Вторая хорошо видимая проблема – это «высоковероятное» не существование эффективного алгоритма решения «любых задач». Поэтому интеллектуальность связана с обучением. Для обучения разумно взять выборку задач из «реальной жизни» и на ней провести (само-)обучение «системы». На другой выборке задач из «реальной жизни» можно проверить, насколько изменилась эффективность решения задач в сравнении с «необученным экземпляром».
В случае человека вторая хорошо видимая проблема почему-то особой проблемой не считается, т.е. считается рутинной технической проблемой. Людей обучают и они самообучаются на разных задачах.
Из первых двух проблем следует третья – это соотнесение критериев друг с другом в связи с многокритериальностью и множествами задач.
Далее, неясно, каких критериях речь. Критерия всего 2:
1) Главный: Решил задачу или не решил.
2) Вспомогательный: Если решил, то за какое время.
Декартово произведение критериев линейно упорядочено очевидным образом, т.е. образует один совокупный критерий.
Откуда вылезла многокритериальность - тоже непонятно.
У меня есть другие, более интересные на мой взгляд, вопросы.
1. Какими базовыми интеллектуальными способностями должен обладать ИИ, чтобы хотя бы как-то мочь решать хоть какие-то задачи? Мне сейчас представляется, что он уже должен владеть логикой предикатов и немного натуральными числами. Насколько немного - затрудняюсь ответить.
2. Какова роль индуктивной компоненты в ИИ? Имеется ввиду правило построения гипотезы
. Мне кажется, что она нужна и без нее нельзя.
(kry)
Проблема начинается действительно именно с нечёткости используемых понятий. Дело всё в том, что если понятия "задача" и "решение задачи" толковать слишком широко, то под эти понятия в интеллекте попадёт абсолютно всё, но, к сожалению, под эти понятия можно будет подвести и ещё слишком много всего и если вообще не всё подряд.
Нет. Имелась ввиду "нечеткость" понятий, описывающих реальный мир. Никто не предлагает толковать понятия (что это вообще такое). Абсолютно все под эти понятия не попадает. Способность образовывать абстракции - это не задача (и не ее решение). Термы - это не задачи и не ее решения. В общем, не понял.
Вот возьмём, к примеру, эмоциональный интеллект. В его рамках существуют такие процессы как ассертивность или эмпатия. Это задачи? В какой-то мере да, и наш мозг и психика их решают.
Я не понимаю, что такое "эмоциональный интеллект". Это похоже на "желтый интеграл". Думаю, что эмпатия (способность к сочувствию и переживанию) - это не задача, просто по определению.
Но с таким подходом тяжело будет отделить интеллект от того же мышления или сознания, так как и сознание, и мышление, и многие высшие функции нервной системы человека завязаны на такое "решение задач".
Еще бы определения дать, что такое "мышление", что такое "сознание".
Из текста вытащил еще несколько недоопределений.
ИИ1 - это объект, который способен решать достаточно большой класс задач (в языке
).
ИИ2 - это объект, являющийся ИИ1, и решающий задачи эффективно.
ИИ3 - это объект, находящийся в реальном мире, способный решать достаточно большой класс задач (тут я больше всего затрудняюсь).
Ясно, что ИИ2 и ИИ3 являются ИИ1. Верно ли, что ИИ2 = ИИ1? Мне сейчас кажется, что в некотором смысле да.
Какие еще описанные в теме ИИ я упустил?