Из википедии:
Цитата:
Алгоритмы глубокого обучения противопоставлены алгоритмам неглубокого обучения по количеству параметризованных преобразований, с которыми сталкивается сигнал, распространяющийся от входного слоя к выходному слою, где параметризованным преобразованием считается такой блок обработки данных, у которого есть обучаемые параметры, такие как веса или пороги.
Каждое параметризованное преобразование образует на основании входных данных некоторые понятия/представления об объектах. Если эти понятия/представления являются конечными ответами, то это получится неглубокое обучение с единственным параметризованным преобразованием. Понятия/представления могут развиваться в несколько этапов, на каждом этапе повышается уровень абстрактности. И это уже глубокое обучение.
Приводится пример, в той же статье википедии:
Цитата:
Наблюдение (например, изображение) может быть представлено многими способами, такими как вектор интенсивности значений на пиксель, или (в более абстрактной форме) как множество примитивов, областей определенной формы, и т. д. Некоторые представления позволяют легче решать поставленные задачи (например, распознавание лица или распознавание выражения лица).
Обозначенная идея выше звучит действительно круто, но возникает естественный вопрос: как правильно обучить эту сложнейшую структуру, ведь у нее многократно увеличивается число параметров (веса, пороги). Как правильно получить
промежуточные понятия/представления? Ведь к ним не предъявлено никаких требований в каждой конкретной задаче. Есть требования (критерии правильности) только для выходных сигналов (конечных ответов) нейронной сети.