искусственные системы, которым, в сознании отказывается "по определению"
Укажите, где было сказано про искусственные системы, которым отказывается в наличии сознания по определению.
естественные системы, которые от искусственных отличаются только тем, что естественные, или какими-то количественными характеристиками (например, количеством нейронов), которым в сознании не отказывают
Укажите, где было сказано, что сознательность системы логически следует от её естественности или от неких количественных характеристик.
"Множество действий A" - задается заранее.
Паттерны (стратегии) поведения - это не множество действий. Паттерн - это алгоритм и его область применимости. Конкретные конечные алгоритмы здесь не задаются.
Почему ракете ПВО отказывается в аппетенции?
Для ракеты ПВО указана потребность попасть во вражеский самолёт и взорваться. Не взорваться при пассивном с точки зрения самой ракеты попадании в зону поражения вражеского самолёта, а самостоятельно попасть в него, иначе это не самонаводящаяся ракета - даже если она была выпущена вручную, то как самонаводящаяся ракета она должна быть наведённой на цель самостоятельно.
Следовательно, данная потребность подразумевает нахождение цели, которое является подзадачей в алгоритме разрешения данной проблематики. То есть, потребность A формулируется как "найти вражеский объект, провести к нему оптимальную траекторию полёта и уничтожить его".
Чтобы у ракеты ПВО была аппетенция, то, упрощённо говоря, должна быть потребность активно удовлетворять потребности более низкого уровня. Указана только одна такая потребность: A. Следовательно, функция аппетенции для ракеты ПВО подразумевает потребность B: "Разработать стратегию оптимального разрешения потребности A".
Это значит, что ракета ПВО, для которой реализована функция аппетенции, должна уметь ставить себе задачу оптимального уничтожения вражеских объектов с учётом всех необходимых для этого действий, причём не отдельно взятого объекта (как указано в A), а объектов в принципе, если они однородны. То есть, задача состоит в том, чтобы задача уничтожения объекта выполнялась вне зависимости от конкретных характеристик движущегося объекта установленного класса.
По аналогии с инфузорией-туфелькой: ракета должна находить оптимальные условия для своего питания и решать проблему питания, исходя из полученных условий. Оптимальные условия подразумевают инвариантность работы общей стратегии к параметрам конкретного объекта конкретного класса. Особо важные цели могут быть выделены в отдельный класс и иметь приоритет, либо вся система классов может быть ранжирована.
Исходя из этого, можно было бы сказать, что ракета ПВО стремится наиболее лучшим способом уничтожить вражеский объект, т.е. у неё соблюдается функция аппетенции, т.е. она желает. Собственно, из такой аксиоматики всё начиналось.
Итак, как могло бы это выглядеть? Могу предложить такой вариант:
1. Ракета была запущена, не важно, вручную или автоматически;
2. Ракета анализирует неким способом, где существует наилучшая возможность поразить противника или нескольких противников сразу (это ещё более лучший вариант), вне зависимости от конкретных характеристик противника конкретного класса;
3. Ракета анализирует неким способом, как оптимальнее всего всего прийти к такой возможности (например, самостоятельно проложить курс к авианосцу);
4. Ракета попадает туда, разрешив потребность B;
5. Ракета решает задачу нахождения противника в конкретных условиях либо переопределяет координаты, если задача была решена раньше, для уточнения;
6. Ракета определяет наилучшую траекторию до противника;
7. Ракета летит по этой траектории и взрывается.
Всё это может показаться на первый взгляд выгодным, но на самом деле это не так, ведь для определения поведения данной ракеты следует создать такие вероятностные модели:
1. Стратегического нахождения целей и проведения траектории по тем или иным паттернам;
2. Тактического нахождения целей и проведения траектории по тем или иным паттернам;
3. Результатов попадания (в кого, какого класса, с каким успехом).
Это всё требует учёта множества значений исходных переменных во всей совокупности их размещений (или сочетаний, зависит от контекста), чтобы ракета, например, стратегически не уничтожила часть чьего-то кладбища самолётов.
Кроме того, затруднительно сформировать систему управления и согласования действий таких ракет. Скорее "желающую" систему разработают для самой системы управления, а не для отдельной ракеты.
Да, разные, наверное. Но где провести дефиницию?
Цель искусственной системы ставится создателями данной искусственной системы, необязательно даже явно для самой системы (в этом случае ей не будет доступна информация о её целях, а сам создатель же просто предполагает, что система будет делать такой-то набор действий, но не факт, что она это будет делать), желание же системы фигурирует строго как часть её самой и является функцией поиска (оптимального) решения других функций и реферирует потребность (эффективно) выполнять потребности более низкого уровня, и если цели системы поставлены неявно, то система, имеющая функцию аппетенции, будет базироваться на всех находимых ей потребностях без акцента на разрешение проблематики цели (которая в явном виде ставится как ещё одна конечная потребность), и если множество таких потребностей является пустым, то очевидно, что система либо ничего не делает, либо выполняет операционный алгоритм, собственно не зависящий от наличия потребностей.
не является животным
В конечном счёте речь не о том, животное это или нет. Живое существо в принципе (гипотетически по крайней мере) можно представить как сложный алгоритм или комплекс алгоритмов:
https://en.wikipedia.org/wiki/OpenWorm.