2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 19, 20, 21, 22, 23
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение20.06.2015, 21:29 
Заслуженный участник


08/04/08
8562

(mserg)

mserg в сообщении #1029115 писал(а):
Во-первых, если речь идет о математике, то чтобы «случилась» задача, должен быть определен языка: алфавит, операции/правила и все такое прочее.
Да, алфавит и некоторый базовый язык должен быть задан. Думаю, что это вполне естественное требование. Например, если Вам дать задачу на китайском языке, Вы ее не решите.

mserg в сообщении #1029115 писал(а):
Поэтому для самой «способности решать задачи» достаточно правильно применять правила плюс регулярный «просмотр в ширину» (патологии, для простоты, здесь не рассматриваем).
Для способности решать задачу недостаточно просто применять правила. Т.е. о каких правилах речь? В зависимости от правил м.б. разный ответ.

mserg в сообщении #1029115 писал(а):
Вторая хорошо видимая проблема – это «высоковероятное» не существование эффективного алгоритма решения «любых задач». Поэтому интеллектуальность связана с обучением. Для обучения разумно взять выборку задач из «реальной жизни» и на ней провести (само-)обучение «системы». На другой выборке задач из «реальной жизни» можно проверить, насколько изменилась эффективность решения задач в сравнении с «необученным экземпляром».
В случае человека вторая хорошо видимая проблема почему-то особой проблемой не считается, т.е. считается рутинной технической проблемой. Людей обучают и они самообучаются на разных задачах.

mserg в сообщении #1029115 писал(а):
Из первых двух проблем следует третья – это соотнесение критериев друг с другом в связи с многокритериальностью и множествами задач.
Далее, неясно, каких критериях речь. Критерия всего 2:
1) Главный: Решил задачу или не решил.
2) Вспомогательный: Если решил, то за какое время.
Декартово произведение критериев линейно упорядочено очевидным образом, т.е. образует один совокупный критерий.
Откуда вылезла многокритериальность - тоже непонятно.


У меня есть другие, более интересные на мой взгляд, вопросы.
1. Какими базовыми интеллектуальными способностями должен обладать ИИ, чтобы хотя бы как-то мочь решать хоть какие-то задачи? Мне сейчас представляется, что он уже должен владеть логикой предикатов и немного натуральными числами. Насколько немного - затрудняюсь ответить.
2. Какова роль индуктивной компоненты в ИИ? Имеется ввиду правило построения гипотезы $P(a_1)\wedge...\wedge P(a_n)\to (\forall x)P(x)$. Мне кажется, что она нужна и без нее нельзя.

(kry)

kry в сообщении #1028990 писал(а):
Проблема начинается действительно именно с нечёткости используемых понятий. Дело всё в том, что если понятия "задача" и "решение задачи" толковать слишком широко, то под эти понятия в интеллекте попадёт абсолютно всё, но, к сожалению, под эти понятия можно будет подвести и ещё слишком много всего и если вообще не всё подряд.
Нет. Имелась ввиду "нечеткость" понятий, описывающих реальный мир. Никто не предлагает толковать понятия (что это вообще такое). Абсолютно все под эти понятия не попадает. Способность образовывать абстракции - это не задача (и не ее решение). Термы - это не задачи и не ее решения. В общем, не понял.

kry в сообщении #1028990 писал(а):
Вот возьмём, к примеру, эмоциональный интеллект. В его рамках существуют такие процессы как ассертивность или эмпатия. Это задачи? В какой-то мере да, и наш мозг и психика их решают.
Я не понимаю, что такое "эмоциональный интеллект". Это похоже на "желтый интеграл". Думаю, что эмпатия (способность к сочувствию и переживанию) - это не задача, просто по определению.

kry в сообщении #1028990 писал(а):
Но с таким подходом тяжело будет отделить интеллект от того же мышления или сознания, так как и сознание, и мышление, и многие высшие функции нервной системы человека завязаны на такое "решение задач".
Еще бы определения дать, что такое "мышление", что такое "сознание".


Из текста вытащил еще несколько недоопределений.
ИИ1 - это объект, который способен решать достаточно большой класс задач (в языке $L$).
ИИ2 - это объект, являющийся ИИ1, и решающий задачи эффективно.
ИИ3 - это объект, находящийся в реальном мире, способный решать достаточно большой класс задач (тут я больше всего затрудняюсь).
Ясно, что ИИ2 и ИИ3 являются ИИ1. Верно ли, что ИИ2 = ИИ1? Мне сейчас кажется, что в некотором смысле да.
Какие еще описанные в теме ИИ я упустил?

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение20.06.2015, 23:24 
Заслуженный участник
Аватара пользователя


09/09/14
6328
Sonic86 в сообщении #1029171 писал(а):
Для способности решать задачу недостаточно просто применять правила.

Вот здесь я бы не ограничивался только какими-то правилами, а говорил бы также о допустимых и недопустимых действиях. Причём класс допустимых действий для полноценного ИИ может быть достаточно широк (например, создать программу для перебора вариантов или, утрируя, квантовый компьютер для факторизации большого числа).

Такой подход требует где-то вскользь упомянуть про целеполагание и моделирование. Вряд ли стоит рассчитывать, что ИИ, не имеющий таких "способностей", будет способен решать достаточно большой класс задач -- тогда это будет или большой класс самых простых задач (без существенных перспектив их усложнения), или заточенный под конкретную задачу недоинтеллект. В частности, полагаю, потребуется умение разбивать задачу на подзадачи.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 00:14 


17/10/08

1313
Sonic86 в сообщении #1029171 писал(а):
mserg в сообщении #1029115 писал(а):
Из первых двух проблем следует третья – это соотнесение критериев друг с другом в связи с многокритериальностью и множествами задач.
Далее, неясно, каких критериях речь. Критерия всего 2:
1) Главный: Решил задачу или не решил.
2) Вспомогательный: Если решил, то за какое время.
Декартово произведение критериев линейно упорядочено очевидным образом, т.е. образует один совокупный критерий.
Откуда вылезла многокритериальность - тоже непонятно.

«Критериев всего 2, откуда многокритериальность? Ведь мы из двух критериев делаем один…» Для меня ответ выглядит именно так.

Пусть есть 100 задач и 10 черных ящиков, которые понимают язык, на котором задачи описаны. Теперь нам нужно сравнить, какой из ящиков есть более интеллект.

Вы предложили использовать флажок решил / «нерешил» и время решения решенной задачи. Первый же вопрос, который возникает, почему для нерешенных задач время игнорируется? И сколько нужно ждать, чтобы убедиться, что задача не решилась?

Данные вопросы можно снять, если договориться, что ящик принимает не по одной задаче, а все 100 задач одновременно. И ограничить общее время решения. Но тогда время решения каждой отдельной задачи не важно. Важно только общее количество решенных задач и, если все задачи решены, за какое время.

Но это еще не все. На практике, по крайней мере, в бизнесе и инженерном деле, задачи обычно содержат критерий. Найти оптимум можно только по большим праздникам.

Поэтому для каждой из задач $i$ получим:
$b_i$ - ценность решения задачи
$c_i$ - достигнутый критерий на момент прекращения поиска
$h_i$ - флажок решенности задачи
Вот три критерия, который нужно свести в один. Ну, или как то иначе упорядочить интеллекты ящиков через них.

Почему этот вопрос так важен. Пусть даже все задачи будут без критериев. Если формально сформулирован критерий интеллектуальности, то можно поставить формальную математическую задачу: «найти такой алгоритм, который решает все 100 задач за кратчайшее время». Поиск оптимального алгоритма – это есть процесс «обучения». Т.е. не мы прямо программируем интеллект, а он сам учится на задачах.

Но с обучением есть проблема «переобучения». Очевидно, что оптимум – это кратчайшее доказательство решения всех 100 задач. Для будущего, если не попадутся прямо эти же задачи, найденный алгоритм будет бесполезен или близко к этому. Поэтому задача обучения ставится несколько иначе. В вольном описании: «Найти алгоритм, который обучается на 90 задачах и решает оставшиеся 10 за кратчайшее время». Получается время на обучение и время на решение - опять многокритериальность.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 00:43 


16/09/12
7127
Sonic86 в сообщении #1029171 писал(а):
Нет. Имелась ввиду "нечеткость" понятий, описывающих реальный мир. Никто не предлагает толковать понятия (что это вообще такое). Абсолютно все под эти понятия не попадает. Способность образовывать абстракции - это не задача (и не ее решение). Термы - это не задачи и не ее решения. В общем, не понял.


А я говорил именно о толковании понятий, потому что если мы не определимся как чётко и ясно толковать понятия, то мы не сможем понять о чём идёт речь. Вот вы упомянули абстракции, а в тех книгах, которые я читал по когнитивистике наличие абстрактного мышления, в частности способность образовывать абстракции и оперировать ими, является характерной чертой интеллекта. Если вы считаете, что это не задача, то таким образом получается, что интеллект уже не сводится только к решению задач.

Sonic86 в сообщении #1029171 писал(а):
Я не понимаю, что такое "эмоциональный интеллект". Это похоже на "желтый интеграл". Думаю, что эмпатия (способность к сочувствию и переживанию) - это не задача, просто по определению.


А что тут понимать? Достаточно просто погуглить, начать можно с той же вики:
https://en.wikipedia.org/wiki/Emotional_intelligence
Является ли задачей эмпатия или нет это как раз вопрос того, что есть задача и тут нужно разобраться с лексическими определениями, а иначе тупик. Если, к примеру, подразумевать под задачей, любую проблемную ситуацию, требующую разрешения, то и на эмпатию можно натянуть статус задачи, так как способность к сопереживанию возникает лишь в определённых проблемных ситуациях и требует её разрешения через определённый набор внешних поведенческих реакций и внутреннего эмоционально-психического восприятия.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 08:35 


12/05/13
228
kry в сообщении #1029218 писал(а):
... начать можно с той же вики:
...Если, к примеру, подразумевать под задачей, любую проблемную ситуацию, требующую разрешения, ...

Из той же Вики можно узнать, что задача отличается от проблемы.
Проблема - это когда известна цель (результат) , которую нужно достичь, но не известно, что и как надо сделать. Очень часто проблеме сопутствует множественность путей достижения цели, ни один из которых не известен.
Бывает и так, что нет ни одной возможности достижения цели, о чём заранее не известно. Короче, - полная неопределённость в действиях.

Для задачи характерна определённость как цели, так и методов её достижения, из которых следует выбрать наиболее приемлемый.

Задачи решают, а проблемы разрешают.

Впрочем, часто смешивают эти понятия, называя задачей любой вопрос, на который требуется получить ответ, и делают это, на мой взгляд, совершенно напрасно.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 09:08 
Заслуженный участник
Аватара пользователя


09/09/14
6328
danko 2013 в сообщении #1029245 писал(а):
Впрочем, часто смешивают эти понятия, называя задачей любой вопрос, на который требуется получить ответ, и делают это, на мой взгляд, совершенно напрасно.

Соглашусь, но отмечу, что в данном случае смешение понятий заложено в обсуждаемую формулу "ИИ есть способность решать задачи". Для примера, задача о существовании выигрышной стратегии в шахматах. Простая, казалось бы, задача на перебор вариантов, но внешние ограничения (как ожидаемая продолжительность жизни Вселенной) превратили её в ту ещё проблематику.

Впрочем, вопрос о том, что понимать под задачей в той формуле. Я бы предпочёл самый широкий смысл, но, может, стоит ранжировать ИИ и по этому признаку.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 09:16 


12/05/13
228
kry в сообщении #1028990 писал(а):
Проблема начинается действительно именно с нечёткости используемых понятий. ...Вот возьмём, к примеру, эмоциональный интеллект. В его рамках существуют такие процессы как ассертивность или эмпатия.


Интеллект – само-изменяющийся, само-настраивающийся алгоритм выбора и преобразования информации, в результате действия которого возникают информационные модули (в то числе и новые алгоритмы действий), ранее данному субъекту неизвестные и в готовом виде в него извне не поступавшие.

Как существуют в рамках такого понимания интеллекта "ассертивность" и "эмпатия" пока не понятно.
Не говоря уже о том, что "способность человека не зависеть от внешних влияний" (ассертивность) не может быть реализована в реальной жизни, то есть является пустым понятием.
Человек - это система непрерывного многоуровневого обмена информацией, и эта система изменяется под влиянием любого внешнего воздействия.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 11:51 


12/05/13
228
grizzly в сообщении #1029248 писал(а):
... данном случае смешение понятий заложено в обсуждаемую формулу "ИИ есть способность решать задачи".
Впрочем, вопрос о том, что понимать под задачей в этой формуле. Я бы предпочёл самый широкий смысл, но, может, стоит ранжировать ИИ и по этому признаку.

Способность решать задачи - ещё не симптом наличия интеллекта, если я правильно понимаю.
Если калькулятор обладает алгоритмом решения задач на сложение, но принципиально не способен в режиме самонастройки выработать алгоритм решения задач извлечения корня, то невозможно говорить о наличии интеллекта.
Интеллект - это не только способность решать задачи определённого вида, но и способность ставить новые задачи и находить новые методы решения задач нового типа.
Есть подозрение, что наличие интеллекта невозможно без способности целеполагания в направлении некой иерархически высшей цели существования объекта.
По отношению к естественному интеллекту такой высшей целью является цель сохранения сущностного "Я" объекта.
Если речь вести об "ИИ", то высшей целью может быть и иная цель.
В таком случае, может быть, и стоит "ранжировать" "ИИ" по типу решаемых задач.
Но возникает вопрос, так ли уж нужна подобная классификация "ИИ", когда будет принято, что калькулятор обладает "ИИ" первого (нулевого) ранга.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 12:34 
Заслуженный участник
Аватара пользователя


09/09/14
6328
danko 2013 в сообщении #1029288 писал(а):
Способность решать задачи - ещё не симптом наличия интеллекта, если я правильно понимаю.
Если калькулятор ...

Чтобы не злоупотреблять цитированием сошлюсь просто на предыдущие свои 2 сообщения в пределах этой страницы.

danko 2013 в сообщении #1029288 писал(а):
По отношению к естественному интеллекту такой высшей целью является цель сохранения сущностного "Я" объекта.

Вот уж нет. По отношению к естественному интеллекту высшей целью является приспособленность "объекта" к условиям окружающей среды, а "сохранение сущностного Я" -- лишь один из механизмов достижения этой цели.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 13:08 
Заслуженный участник


08/04/08
8562

(grizzly)

grizzly в сообщении #1029192 писал(а):
Вот здесь я бы не ограничивался только какими-то правилами, а говорил бы также о допустимых и недопустимых действиях. Причём класс допустимых действий для полноценного ИИ может быть достаточно широк (например, создать программу для перебора вариантов или, утрируя, квантовый компьютер для факторизации большого числа).
Вы говорите как минимум о ИИ3. Я говорю только о ИИ1, от остальных потенциальных возможностей я абстрагируюсь.

grizzly в сообщении #1029192 писал(а):
Такой подход требует где-то вскользь упомянуть про целеполагание и моделирование. Вряд ли стоит рассчитывать, что ИИ, не имеющий таких "способностей", будет способен решать достаточно большой класс задач -- тогда это будет или большой класс самых простых задач (без существенных перспектив их усложнения), или заточенный под конкретную задачу недоинтеллект. В частности, полагаю, потребуется умение разбивать задачу на подзадачи.
Моделирование - для ИИ3.
Целеполагание думаю, что необходимо, но с ним вроде как проблем не возникает. Исходные цели можно вводить извне, промежуточные ИИ по идее должен строить сам. Разбивать задачу на подзадачи - обязательно нужно, можно даже привести пару простейших правил разбиения, исходя из определения задачи.


(mserg)

mserg в сообщении #1029208 писал(а):
можно поставить формальную математическую задачу: «найти такой алгоритм, который решает все 100 задач за кратчайшее время».
Это не задача в моем смысле, т.к. "время" в языке не выражается. Можно конечно, если есть определение задачи, сформулировать определение задачи за время $t$ (либо $O(f(\text{параметры задачи}))$) и давать их решать. Только мне представляется, что это мало что даст. Время (число шагов выполнения, объем памяти) можно рассматривать в ИИ на внутреннем, "программном уровне" для выбора оптимальных алгоритмов. Но что даст задание этого параметра извне, мне непонятно.

mserg в сообщении #1029208 писал(а):
Пусть есть 100 задач и 10 черных ящиков, которые понимают язык, на котором задачи описаны. Теперь нам нужно сравнить, какой из ящиков есть более интеллект.

Вы предложили использовать флажок решил / «нерешил» и время решения решенной задачи. Первый же вопрос, который возникает, почему для нерешенных задач время игнорируется? И сколько нужно ждать, чтобы убедиться, что задача не решилась?
Мне кажется так: если мы делаем ИИ, то мы знаем, что у него происходит внутри, просто ставим логи в нужных местах и читаем, что там у него происходит. Если видим какую-то очевидную ошибку - думаем, что можно сделать. Я думаю, что этого для начала хватит надолго. Потому считаю, что подобную постановку вопроса можно не рассматривать. А если время учитывать в точности, так это придется и аппаратные средства рассматривать - это совершенно нереально.


(kry)

kry в сообщении #1029218 писал(а):
А что тут понимать? Достаточно просто погуглить, начать можно с той же вики:
https://en.wikipedia.org/wiki/Emotional_intelligence

Является ли задачей эмпатия или нет это как раз вопрос того, что есть задача и тут нужно разобраться с лексическими определениями, а иначе тупик. Если, к примеру, подразумевать под задачей, любую проблемную ситуацию, требующую разрешения, то и на эмпатию можно натянуть статус задачи, так как способность к сопереживанию возникает лишь в определённых проблемных ситуациях и требует её разрешения через определённый набор внешних поведенческих реакций и внутреннего эмоционально-психического восприятия.
Не согласен. Эмпатия - не задача. Эмоциональный интеллект - не интеллект в моем смысле. Натягивать не надо. В любом случае, можно рассматривать реальный интеллект и выделять в нем разные аспекты (распознавание лиц, распознавание эмоций, theory of mind), находить в нем разные способности. Если Вы способны сразу справиться со всей этой кучей - пожалуйста. Я так делать не буду. Я буду делать стандартно. Я выделяю один аспект - способность решения задач - и разбираюсь с ним. Вы здесь говорите про ИИ больший, чем ИИ3. Я говорю только про ИИ1.
Кроме того, эмоциональный интеллект - это антропоморфизм. Зачем делать антропоморфный интеллект в этом аспекте - мне глубоко непонятно.

kry в сообщении #1029218 писал(а):
А я говорил именно о толковании понятий, потому что если мы не определимся как чётко и ясно толковать понятия, то мы не сможем понять о чём идёт речь.
Я написал ориентировочно определения для нескольких типов ИИ, мне пока достаточно. Толковать я категорически ничего не буду.

kry в сообщении #1029218 писал(а):
Вот вы упомянули абстракции, а в тех книгах, которые я читал по когнитивистике наличие абстрактного мышления, в частности способность образовывать абстракции и оперировать ими, является характерной чертой интеллекта. Если вы считаете, что это не задача, то таким образом получается, что интеллект уже не сводится только к решению задач.
Способность образовывать абстракции - это тоже не задачи, просто способность. Может ли ИИ быть без абстрактного мышления - хороший вопрос. Для ИИ3 этот вопрос точно не стоит - любое восприятие мира - это восприятие лишь его части, т.е. образование абстракции. Для ИИ1 - пока непонятно.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 13:10 


12/05/13
228
grizzly в сообщении #1029302 писал(а):
По отношению к естественному интеллекту высшей целью является приспособленность "объекта" к условиям окружающей среды, а "сохранение сущностного Я" -- лишь один из механизмов достижения этой цели.

Думаю, Вы путаете приоритеты. Цель приспособленности к условиям среды является подчинённой целью и служит сохранению "Я". Это средство достижения иерархически высшей цели самосохранения. Если из вектора целей убрать цель самосохранения (сохранения "Я"), то цель приспособления автоматически теряет смысл.

(Оффтоп)

Если уж говорить о выживании как цели существования живого объекта, то, на мой взгляд, имеет смысл уточнить, что
основной целью существования живого объекта является сохранение его сущностного "Я". В зависимости от того, с какой частью окружающего мира "Я" сущности себя отождествляет, целеполагание может значительно отличаться у разных объектов.
Если живое существо (это относится и к людям) отождествляет своё "Я" исключительно с собственным телом, включая приданные от рождения инстинкты, то высшей жизненной целью является выживание этого тела. Это означает, что все другие цели, имеющие более низкий иерархический уровень в полном векторе (упорядоченном списке) жизненных целей, будут индивидом отброшены ради достижения высшей цели.
Такое индивидуалистическое целеполагание свойственно самым примитивным организмам, в частности - животным. Кстати, и многим людям - тоже.
Тем не менее, несмотря на то, что люди в своей жизнедеятельности вынуждены опираться на животные инстинкты, не все из них хотят оставаться человекообразными животными, в психике которых устойчиво доминируют эти самые инстинкты.
И в жизни людей всегда есть примеры, когда человек развивает в себе способность отождествлять своё "Я" с частью мира, значительно выходящей за границы собственного тела, одетого в модные шмотки, и ,освобождаясь от животного диктата, может отказаться от многих ценностей, обеспечивающих его физическое выживание, в том числе осознанно идя на смерть ради высшей для него цели - выживания семьи, племени, народа, человечества.
У каждого - своя мера отождествления своего сущностного "Я". Соответственно - своя иерархия жизненных целей. И - своё конкретное выражение цели выживания "его самого".
Кто-то готов погибнуть ради спасения своих односельчан, а кто-то готов сотни единоплеменников сжечь заживо ради сохранения примитивно понимаемого "его самого".
Индивиды разные, одни - человеки, а другие - человекообразные...

В конце концов, любой цели из списка вектора целей, за исключением иерархически высшей. сопутствует вопрос: "для чего, с какой целью?"

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 13:32 
Заслуженный участник
Аватара пользователя


09/09/14
6328
danko 2013 в сообщении #1029312 писал(а):
В конце концов, любой цели из списка вектора целей, за исключением иерархически высшей. сопутствует вопрос: "для чего, с какой целью?"

Это верно. Остаётся выяснить, кто формулирует эту иерархию вопросов. Вы, похоже, отдаёте эту честь самому интеллекту и получаете запрограммированный ответ -- интеллекту важнее всего "выживание интеллекта". Я же формулирую, так сказать, этот вопрос со стороны естественной среды. Под влиянием которой был сформирован этот самый естественный интеллект. Так что нет -- с Вами я не могу согласиться. Хотя и могу поддержать всякого рода патетику про человеков vs человекообразных, считая этот эмоциональный отклик не имеющим отношения.

(Sonic86)

Просто "сверил часы". Убедился, что с Вашим подходом вполне согласен.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 13:47 


17/10/08

1313
Sonic86 в сообщении #1029171 писал(а):
У меня есть другие, более интересные на мой взгляд, вопросы.
1. Какими базовыми интеллектуальными способностями должен обладать ИИ, чтобы хотя бы как-то мочь решать хоть какие-то задачи? Мне сейчас представляется, что он уже должен владеть логикой предикатов и немного натуральными числами. Насколько немного - затрудняюсь ответить.
2. Какова роль индуктивной компоненты в ИИ? Имеется ввиду правило построения гипотезы $P(a_1)\wedge...\wedge P(a_n)\to (\forall x)P(x)$. Мне кажется, что она нужна и без нее нельзя.

По-моему, универсальный (или очень широкий) базовый механизм – это «язык создания языков». Т.е. на этом «языке» можно сказать: пусть … – это формальная теория, где закорючки … имеют тип …, закорючки … имеют тип …, и имеют место аксиомы …, … и имеют место правила вывода … т.д.

За базовый алгоритм можно взять алгоритм унификации (он реализован в языке Пролог с небольшим «дефектом» - есть возможность зацикливания).

На этом базовом языке на правах гипотез(?) строить формальные системы, их сдруживать (например, «целые числа – действительные числа»), на них формулировать «задачи пользователей». Для образования интерфейса с пользователями можно описать исчисление предикатов, теорию чисел, и т.д. – тогда можно формулировать задачи.

P.S. Остается нераскрытой интрига о том, что для решения задач недостаточно «применять правила». Нельзя ли описать случай, когда это не так.

 Профиль  
                  
 
 Re: Будущее человечества при ИИ. Займемся футурологией?
Сообщение21.06.2015, 15:32 
Заслуженный участник
Аватара пользователя


28/09/06
10850
Sonic86 в сообщении #1029171 писал(а):
2. Какова роль индуктивной компоненты в ИИ? Имеется ввиду правило построения гипотезы $P(a_1)\wedge...\wedge P(a_n)\to (\forall x)P(x)$. Мне кажется, что она нужна и без нее нельзя.
Метод неполной индукции, это такая штука, ограниченность которой, по-моему, давно всем понятна. На самом деле, вопрос не в том, применять или не применять этот метод, а в том, к какому именно предикату $P$ его применять. То есть при желании его можно применить практически к любому предикату, а на деле он применяется не к любым, а только к таким предикатам, которые нам по тем или иным причинам понравились. Только в последнем случае это уже называется не неполной индукцией, а скорее -- именно выдвижением гипотез. Т.е. суть не в коллекционировании достаточно большого множества $\{a_1, \dots , a_n\}$, а в формулировке такой гипотезы, которая изначально выглядит "красиво".

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 344 ]  На страницу Пред.  1 ... 19, 20, 21, 22, 23

Модератор: Модераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group