Здравствуйте! Новый год решил начать с изучения книги Саймона Хайкина "Нейронные сети. Машинное обучение" 3-е издание, и сразу загвоздка...
Пусть даны конечные множества

и

, про которые известно, что они отделены друг от друга

-мерной плоскостью (linearly separable). Oбозначим

где

а

. Нужно найти вектор

такой, что

для всех

, и

для всех

.
Решение предлагают искать итеративно по следующему правилу. Полагаем

, а на шаге

поступаем следующим образом:
1) если

и

, или

и

, то

;
2) если

и

, то

;
3) если

и

, то

.
Назовем это правилом настройки перцептрона.
Утверждается, что по этому правилу решение находится за конечное кол-во шагов.
Док-во. Пусть для

выполнены неравенства

, где, в силу правила настройки перцептрона,

Известно, что решение существует (линейная отделимость мн-в). Oбозначим его через

. Без ограничения общности можно считать, что Евклидова норма

. Oпуская детали, просто скажу, что имеет место нер-во

которое, однако, верно только для

. Здесь

Всё! Этого, по мнению автора книги, достаточно для того, чтобы утверждать, что существует такое

, что

В общем, я в шоке. Либо надо начать изучать нейронные сети по другой книге, либо я чего-то не понимаю, и тогда прошу подсказать, где здесь собака зарыта. Заранее спасибо)