2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2
 
 Re: Переобучение на валидационном наборе
Сообщение14.06.2024, 09:56 


15/11/15
985
sergey zhukov в сообщении #1642608 писал(а):
Просто минимум.

А, ну да. Некий набор весов, где тренировка дает почти ноль.
То есть предлагаете искать набор весов, который дает минимум на сумме невязок тренировочного и валидационного набора?
Но тогда валидационный набор сильно превращается в тренировочный. Вроде как :mrgreen: .

 Профиль  
                  
 
 Re: Переобучение на валидационном наборе
Сообщение14.06.2024, 10:10 


17/10/16
4371
gevaraweb
Превращается. Только я этого не предлагаю, это так может получится, но нам это не нужно.

 Профиль  
                  
 
 Re: Переобучение на валидационном наборе
Сообщение28.06.2024, 19:42 


17/10/16
4371
А вот еще вопрос про лишние признаки.

В лекции про машинное обучение часто обсуждают вопрос о том, как бы сократить количество входных признаков для обучения, отбросить маловажные. Я сначала думал, что это для того, чтобы весов поменьше было в конечной сети. И чтоб эти признаки не раздували мерность пространства и не путали градиентный спуск. Т.е. чтобы ускорить и упростить обучение. Но точность при этом пострадает.

Но потом вижу, что говорят о том, что можно улучшить работу сети и сделать ее точнее, если маловажные признаки выбросить. Вроде бы распространено убеждение, что нейронная сеть - это такая штука, которая способна из чего угодно выжать максимум возможного. Т.е. если признак несет хоть какую-то даже малую пользу, то его лучше оставить. И даже если он вообще случаен, то его все равно можно оставить, он не помешает. А поскольку мы никогда точно не уверены в абсолютной случайности признака, то ничего выбрасывать не нужно.

На практике же это не работает. Я правильно понимаю, что не работает потому, что обучающая выборка всегда конечна, а на конечной выборке сеть всегда найдет какие-то корреляции даже совершенно случайного признака с выходными данными? Т.е. мы ожидаем, что процесс обучения должен просто обнулить веса случайного признака прямо на входе в первом слое сети. А на практике он этого не сделает, т.к. случайные корреляции на конечном наборе все равно существуют. А кроме того, процесс обучения конечен еще и по времени, важно не переобучить сеть. Т.е. до обнуления этих весов просто вообще может не дойти?

 Профиль  
                  
 
 Re: Переобучение на валидационном наборе
Сообщение01.07.2024, 11:23 
Заслуженный участник
Аватара пользователя


16/07/14
8828
Цюрих
sergey zhukov в сообщении #1644344 писал(а):
мерность пространства
размерность

Еще важный параметр - как работает регуляризация. Довольно часто при обучении в штраф включается функция от весов, чтобы веса получились поменьше (для снижения переобучения). Если регуляризация квадратичная, то добавление нескольких сильно скоррелированных признаков ее портит.

 Профиль  
                  
 
 Re: Переобучение на валидационном наборе
Сообщение01.07.2024, 17:29 


15/12/22
129
sergey zhukov, такой способ как Вы описываете хоть и не самый лучший, но всё же практикуется.
Здесь, чтобы найти оптимальный момент останова, нужно просто сгладить валидационную кривую.

 Профиль  
                  
 
 Re: Переобучение на валидационном наборе
Сообщение20.07.2024, 18:36 


15/11/15
985
sergey zhukov в сообщении #1642523 писал(а):
Но не будет ли это похоже на таки обучение сети на валидационном наборе и таки ее возможное переобучение?

Кстати, я вспомнил, еще бывает так: при обучении валидационный набор выбирается из тренировочного, видимо, случайным образом. То есть, например, 10 % тренировочных данных (validation_split = 0.1) не участвуют в обучении, а используются для оценки качества НС, в ходе обучения.
И потом НС оценивается на изначальном (стабильном так скажем) валидационном наборе.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 21 ]  На страницу Пред.  1, 2

Модераторы: Karan, Toucan, PAV, maxal, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group