Тут не тем же занимаются? Optimizing Extreme Learning Machine via Generalized Hebbian Learning and Intrinsic Plasticity Learning
Да, спасибо, видимо чем то похожим ... надо посмотреть будет и сравнить.
То, что они называют Basic ELM - по сути и есть перцептрон Розенблатта, только у перцептрона нет смещения, что мы определили как по сути лишние, и случайные веса первого слоя только -1 и +1, а в Basic ELM видимо произвольные, скорее всего на отрезке [1;-1] . Ну, и обучение у них другое, хотя они и вспоминают про правило Хебба, но в оригинале используют другое ...
-- Чт окт 16, 2025 16:09:20 --В целом, они делают все по другому, что не удивительно и как то слишком сложно по мне, их математическое описание сложно понять, и нужно смотреть код, если вы знаете где найти исходники - подскажите.
-- Чт окт 16, 2025 16:14:25 --Впрочем я нашел 
https://github.com/5663015/elm-- Чт окт 16, 2025 16:17:40 --Похоже переоткрыли Розенблатта, интересно в оригинале ссылались на него или не знали о нем :)
-- Чт окт 16, 2025 16:27:12 --Нет, в оригинальной статье Хуанга - ни слова про Розенблатта, значит похоже, но не то :) Там в статье важна теорема названая JL Theorem, она как раз показывает что делает сеть Розенблатта, он её не формулировал, но по факту это и реализовал, за счет его перцептрон и работает, и не является однослойным