Я имею в виду - почему там нужна

, а

не подходит.
потому что когда Розенблатт будет определять правило обучения, он скажет что корректировать нужно на обратное значение от R. Если это держать в уме, то можно свести к нулю (но при обучении 0 представлять как -1)
-- Сб ноя 01, 2025 04:10:29 --Я думал, что вот этот слой матрица

(и я забыл написать, что она с элементами

).
Давайте чтобы не путаться, называть это матрицей весов обозначая или SA, и отличать её от матрицы весов AR, или W1 и W2, а еще лучше Wsa и War, первая с элементами

, вторую подбираем. Первая матрица собственно, это и есть отображение стимулов в признаки (после прохождения порога).
-- Сб ноя 01, 2025 04:15:55 --Опять же, какие-то ограничения нужны.
Если классически, это алгоритм такого типа
Код:
Алгоритм 2: Случайно-чередуемая инициализация связей
Вход: SCount = n
Выход: Матрица весов WeightSA
для каждого А-элемента a:
для j = 1 до 2n:
сенсор ← случайный(1, n)
тип ← случайный({-1, 1}) // равновероятный выбор
WeightSA[сенсор][a] ← тип
-- Сб ноя 01, 2025 04:25:12 --Иначе я Вам непрерывную преобразую
я уже говорил, что перцептрон в оригинале не работает с непрерывными числами, их нужно бинаризировать, еще до того, как подать на входы S, ну или нормализировать в [0,1] - для MNIST градации серого делим на 255, и все хорошо работает без бинаризации