После того как очевидная истина прозвучала не только из моих уст, можно вернуться по стэку назад
Нет, это можно будет сделать только после того, как Вы перестанете вырывать цитаты из контекста с кровью.
В нейронных сетях нет никакого дела до вероятностных распределений и тестирований. Под множеством гипотез понимается континуальное множество весов
(жирный шрифт мой - mihaild)
Повторю вопрос
Какие веса в logical descriptions (10 часть)?
Можете не отвечать, если перестанете при этом нести бред о том, что все модели параметризуются весами, и что Митчелл не говорит о гипотезах как о функциях, при том, что Вы сами процитировали, где он это говорит.
Итак, в части "переобучение это свойство алгоритма" - надеюсь возражений больше не осталось?
Остались, все те же самые.
По Вашему определению переобучение - это свойство запуска алгоритма на конкретнй выборке на конкретном разбиении.
Потому что мы можем для одного и того же алгоритма при одном запуске получить переобучение, а для другого - нет.
Вы же на моем месте, вместо того, чтобы это признать, назовете обучение сети переобучением и продолжите подгонку нуля к нулю
Исходя из предыдушего предположу, что Вы перепутали
realeugene со мной. Нет, я не буду заниматься такой фигней.
Еще раз: early stopping - это всего лишь один из способов борьбы с переобучением. И уменьшение лишь одного, не самого важного, аспекта сложности модели.
Гораздо важнее для случая нейросетей - иметь поменьше весов. А для того, чтобы меньшим количеством весов всё равно получилось выразить нужные в данной задаче функции - брать более сложные, чем просто полносвязная, архитектуры.
я однозначно назову такие условия постановки эксперимента - неправильно поставленными
Какие "такие"? Всем пока что завяленным Вам условиям на датасет CIFAR10 удовлетворяет.