alhimikoffDeep learning это торговая марка.
Нет, не марка. Но Вы отгадали. Как сказал один маркетолог это просто фантазийное слово - слово без чётких рамок и понятий, такое же как и слова «эффект» и «харизма». Или как говорят философы эти понятия растяжимые.
Что-бы не в водить в заблуждения других людей принято считать глубинными сетями от 3-х и более слоёв.
ozheredov
В теории 2 слоя хватит для всего:
http://nethash.ru/posobie-po-discipline ... tml?page=7
Только для задачи классификации известных данных. Но перед НС ещё ставят задачи угадывать решения для неизвестных данных.
Помните когда у Гугла НС сломалось? Стоило к фотографии панды добавить немного Гаусового шум и НС начинала говорить что на фото Гибон.
Решена ли проблема захода в локальный минимум при обучении нейронной сети?
Для текущего уровня развития задача решена достаточно хорошо. Но над теорий можно и поработать.
RasoolИмитация отжига сюда годится?
Годится. Но я думаю
Andrey_Kireew имел ввиду встряску.
alhimikoffПомимо поиска случайного пути и тяжёлого шарика, есть ещё отбор по поколениям. Дойдя до локального минимума НС повторно обучается, но с внесёнными случайных изменениями. Так повторяется несколько поколений, из которых выбирается поколение с лучшим результатом.
Кстати, а почему Вы не используете современные фремфорки - как к примеру TenserFlow?