Если бы Вы просто написали, что моё утверждение противоречит Вашим экспериментальным данным, то я бы объяснил, почему не противоречит. Ошибки, и обвинения в ошибках, в том числе сами ошибочные - это нормально. А вот, невнимательно прочитав, обвинить в догматизме - нет.
Хорошо объясните, а лучше сделайте ровно то, что я попросил, объясните мой график с ваших позиций. Возможно, Вы просто плохо выразились и я не понял, ок. Слова про догматизм я забираю назад.
-- Чт окт 30, 2025 16:20:07 --Речь не про сходимость иттеративного алгоритма. Это зависимость качества(акураси) модел_ЕЙ(уже "сошедшийся") от их сложности, "емкости"(в случае перцептрона Розенблатта количества A нейронов), два графика один при инференсе на обучающей выборке другой на вне обучения. То есть речь не про схождение отельной модели, тут каждая точка это отдельная модель. Количество итераций ограниченно 1000й, для перцептрона Розенблатта.
Это я понял, правда не сразу. Это можно видеть по моим сообщениям. 
Но давайте, заметим еще то, что this в своем эксперименте увеличивает плавно число нейронов? И по сути показывает совсем другое, ни когда остановится при обучении, а сколько нейронов выбрать.
Поэтому как не странно, это даже не будет противоречить эксперименту this, т.к. он показывает сколько выбрать нейронов, а не когда остановиться. Я только не понимаю, почему он вывод о поиске числа нейронов (сложности модели) распространяет на итерации обучения.
на что мне отвечает 
mihaildИ то, и другое - расширение множества рассматриваемых вариантов моделей. Как у нас есть больше вариантов весов при большем количестве нейронов, так и за большее количество эпох можно дойти до большего множества весов.
Ну допустим, вы за его слова не отвечаете, и я мог не внимательно различать между вами вашу позицию. Но контекст все равно шел об итерационном обучении, с чего вдруг вы решили заговорить про поиск количества нейронов в контексте переобучения, остается не ясным ...
Но начали и вы с того же
Если алгоритм достигает 100 % точности на обучающей выборке, это почти наверняка означает, что он не просто выучил полезную закономерность, а подстроился под шум — то есть переобучился.
А поскольку шум в тестовой выборке другой (шум априори случаен!), модель, "запомнившая" обучающий шум, будет работать на тесте хуже, чем более простая и устойчивая модель, то есть не заучившая 100%но лёрн. Это классический пример компромисса смещение–дисперсия.
итак? раз мы тут такие принципиальные - эти слова вы тоже забираете, и говорите, что просто сместили контекст на обсуждение другого?
и снова ни слова о моих контпримерах  
 
 ну, как еще мне это интерпретировать, как не догматизм  

 ну, ок - можно еще как веру в авторитет ... ну а как еще?