Здравствуйте! Новый год решил начать с изучения книги Саймона Хайкина "Нейронные сети. Машинное обучение" 3-е издание, и сразу загвоздка...
Пусть даны конечные множества
и
, про которые известно, что они отделены друг от друга
-мерной плоскостью (linearly separable). Oбозначим
где
а
. Нужно найти вектор
такой, что
для всех
, и
для всех
.
Решение предлагают искать итеративно по следующему правилу. Полагаем
, а на шаге
поступаем следующим образом:
1) если
и
, или
и
, то
;
2) если
и
, то
;
3) если
и
, то
.
Назовем это правилом настройки перцептрона.
Утверждается, что по этому правилу решение находится за конечное кол-во шагов.
Док-во. Пусть для
выполнены неравенства
, где, в силу правила настройки перцептрона,
Известно, что решение существует (линейная отделимость мн-в). Oбозначим его через
. Без ограничения общности можно считать, что Евклидова норма
. Oпуская детали, просто скажу, что имеет место нер-во
которое, однако, верно только для
. Здесь
Всё! Этого, по мнению автора книги, достаточно для того, чтобы утверждать, что существует такое
, что
В общем, я в шоке. Либо надо начать изучать нейронные сети по другой книге, либо я чего-то не понимаю, и тогда прошу подсказать, где здесь собака зарыта. Заранее спасибо)