2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу 1, 2, 3  След.
 
 Проблема локального минимума в нейронной сети
Сообщение19.09.2018, 10:46 


27/11/15

115
Решена ли проблема захода в локальный минимум при обучении нейронной сети?
Накидал нейронку с обучением обратным распространением. Некоторое время ошибка бодро идёт вниз, и зависает на некотором числе. Подвигав веса, иногда начинается дальнейшее снижение.

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение20.09.2018, 00:57 


01/05/17
50
Где я?
Нет не решена. Но, как оказывается, это не так сильно мешает обучению. Потому как "большинство локальных минимумов дают результаты близкие к глобальному минимуму". Погуглите “almost all local minimum have very similar function value to the global optimum” в контексте deep learning. То, что Вы наблюдаете, это скорее всего седловые точки http://www.offconvex.org/2016/03/22/saddlepoints/

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение20.09.2018, 11:59 


27/11/15

115
Лучше то не становится от того что это седловая точка. Не учится сеть и всё тут.

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение20.09.2018, 12:26 


10/03/16
4444
Aeroport
alhimikoff

Метод тяжелого шарика пробовали?

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение20.09.2018, 15:45 


27/11/15

115
ozheredov
Не пробовал.
Paragraph
Да прямо уж нет плохих локальных минимумов совсем ни в каких задачах?? В статье полно ограничений вроде "число нейронов равно размеру обучающей выборки", если даже всё правильно доказали.

Deep learning это торговая марка. Если у меня сеть три слоя - это Deep learning или нет? Сколько слоёв надо чтоб стало deep?

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение20.09.2018, 17:54 


10/03/16
4444
Aeroport
alhimikoff в сообщении #1340310 писал(а):
Deep learning или нет? Сколько слоёв надо чтоб стало deep?


С какой по счёту песчинки начинается куча песка?

Вот как только у вас возникнет гемор с параличом весов первого слоя, так знайте, что это оно — глубокое обучение

Три слоя это ни о чем

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение20.09.2018, 22:48 


27/11/15

115
ozheredov
В теории 2 слоя хватит для всего:
http://nethash.ru/posobie-po-discipline ... tml?page=7

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение20.09.2018, 22:59 


10/03/16
4444
Aeroport
alhimikoff в сообщении #1340404 писал(а):
В теории 2 слоя хватит для всего:


Это называется один (скрытый) слой :). На реальных изображениях такая сетка затребует огромного объёма скрытого слоя и затем переобучится. Фишка deep learning состоит в эффективном сжатии информации, то есть генерировании признаков на каждом последующем слое

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение22.09.2018, 22:59 


07/10/15

2400
alhimikoff после попадания в локальный минимум можно перейти к случайному поиску, до тех пор, пока функционал не улучшится, потом оптимизация продолжается с помощью основного алгоритма. Это просто и главное - работает.

Вообще, случайному поиску неведомы такие проблемы, как локальный максимум. Но работает он как "черепаха".

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение23.09.2018, 06:23 


12/07/15
3312
г. Чехов

(Оффтоп)

alhimikoff в сообщении #1340310 писал(а):
Deep learning это торговая марка.

Какой-то заштампованный штамп.

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение23.09.2018, 22:07 


20/09/09
2038
Уфа
Andrey_Kireew в сообщении #1340813 писал(а):
alhimikoff после попадания в локальный минимум можно перейти к случайному поиску, до тех пор, пока функционал не улучшится, потом оптимизация продолжается с помощью основного алгоритма. Это просто и главное - работает.

Вообще, случайному поиску неведомы такие проблемы, как локальный максимум. Но работает он как "черепаха".

Имитация отжига сюда годится?

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение23.09.2018, 23:07 
Аватара пользователя


31/10/08
1244
alhimikoff
alhimikoff в сообщении #1340310 писал(а):
Deep learning это торговая марка.

Нет, не марка. Но Вы отгадали. Как сказал один маркетолог это просто фантазийное слово - слово без чётких рамок и понятий, такое же как и слова «эффект» и «харизма». Или как говорят философы эти понятия растяжимые.
Что-бы не в водить в заблуждения других людей принято считать глубинными сетями от 3-х и более слоёв.

alhimikoff в сообщении #1340404 писал(а):
ozheredov
В теории 2 слоя хватит для всего: http://nethash.ru/posobie-po-discipline ... tml?page=7

Только для задачи классификации известных данных. Но перед НС ещё ставят задачи угадывать решения для неизвестных данных.
Помните когда у Гугла НС сломалось? Стоило к фотографии панды добавить немного Гаусового шум и НС начинала говорить что на фото Гибон.
Изображение

alhimikoff в сообщении #1340100 писал(а):
Решена ли проблема захода в локальный минимум при обучении нейронной сети?

Для текущего уровня развития задача решена достаточно хорошо. Но над теорий можно и поработать.

Rasool
Rasool в сообщении #1340942 писал(а):
Имитация отжига сюда годится?

Годится. Но я думаю Andrey_Kireew имел ввиду встряску.

alhimikoff
Помимо поиска случайного пути и тяжёлого шарика, есть ещё отбор по поколениям. Дойдя до локального минимума НС повторно обучается, но с внесёнными случайных изменениями. Так повторяется несколько поколений, из которых выбирается поколение с лучшим результатом.

Кстати, а почему Вы не используете современные фремфорки - как к примеру TenserFlow?

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение23.09.2018, 23:17 


07/10/15

2400
Годится. Насколько хорошо - зависит от задачи.

-- 24.09.2018, 00:25 --

Pavia в сообщении #1340952 писал(а):
Но перед НС ещё ставят задачи угадывать решения для неизвестных данных


Это и есть задача классификации в общепринятом её понимании, иначе это не классификатор, а алгоритм компрессии данных. Сходства между ними, конечно, прослеживаются, но цели совсем разные. Так, что если "классификатор" распознаёт только изображения, использовавшиеся при его настройке (обучении), то это вообще ниочём.

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение24.09.2018, 13:17 
Аватара пользователя


06/08/09
165
Подобраны параметры алгоритмов оптимизации так что бы при поиске не происходило проваливания в мелкие минимумы. Используются стохастические (по мне так излишне сильно сказано) алгоритмы, когда минимизация на последующих шагах делается на непересекающихся подмножествах обучающего набора. В результате паразитные минимумы на разных подмножествах разные и из них вытряхивается. А глобальные минимумы на разных подмножествах близки. Как говорилось в предыдущих ответах считается что разница между хорошими минимумами несущественна.
Посмотрите Гудфеллоу, Глубокое обучение.

 Профиль  
                  
 
 Re: Проблема локального минимума в нейронной сети
Сообщение24.09.2018, 13:32 


07/10/15

2400
Интересное развитие идеи "бэггинг". Чего только не придумают.
Действительно, получается глубокое обучение. Причём, применять его можно к любой нелинейной сети, даже двухслойной. И этап предобучения как таковой отсутствует.

Но это больше борьба с шумами, а не выход из локальных минимумов. Они ведь могут быть истинными, а не обусловленными шумами. Тогда этот подход ничего не даст.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 31 ]  На страницу 1, 2, 3  След.

Модераторы: Karan, Toucan, PAV, maxal, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: Mihaylo


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group