Человек легче прощает машине те ошибки, которые допустил бы сам. Вполне очевидно, что эта база цифр получена из каких-нибудь почтовых индексов и изначально кросс-валидирована с рядом написанными адресами.
Т.е. вы хотите сказать, что это не ошибка? А я не вижу, что там за цифра? Значит это ошибка, которую допустил писавший, вот и всё. Хотя скорее всего это ошибка в выборке. Если это действительно так, и это не ошибка
Mihaylo-- Ср ноя 26, 2025 15:33:45 --Запустил код с гитхаба, с дропаутом и без, по 10 раз, остальные параметры не трогал. Средняя точность на тесте с дропаутом 99.279%, без 99.014%, 95% CI [0.13%, 0.39%].
Слишком большой у вас разброс. Видимо выбираете случайный момент обучения, предпологаю что как и в примере 10 итераций, что конечно же не верно. Увеличьте до 30-40 итераций , обучите до конца и выберите лучший результат, с регуляризацией и без. Причем можете отключить и дропаут и нормализацию. Десять раз я не запускал, но около 3-х дают в среднем около 60 ошибок, и 70-75 без регуляризации, т.е. разница 0.01-0.02 %
P.S. Ах, да, можно даже убрать последний слой на 512, он тоже принципиально ничего не меняет.
Моё видео, если кому то будет интересно, что именно дает лучшие обобщение
Свёрточная нейронная сеть - разбор примера (CNN, Pyton, C#, Guide, MNIST)