Мне кажется, основная проблема нейронных сетей состоит в том, что вокруг них очень много маркетингового шума и околонаучных рассуждений.
Да, тут уже говорилось об этом.
Собственно говоря, многослойный персептрон есть функция от n-параметров (весов):
.
Немного неточно. Если уж называть многослойный персептрон функцией, то это функция от входного вектора, параметризованная вектором весов.
Т.е. может описать сколь угодно сложные многомерные явления.
Извините, но эта фраза - из области того самого "маркетингового шума", о котором Вы писали
С помощью многослойного персептрона можно аппроксимировать модель сложного многомерного явления, если такая модель существует и является устойчивой, обучающий набор данных содержит достаточное количество точек и т.д. и т.п.. А то народ сразу бросается описывать сложное многомерное явление "завтрашний курс доллара", у него, естественно, ничего не получается, в результате чего делается логичный вывод, что НС - это полное барахло.
Так что лучше использвать формулировки типа пересмотренного закона Ома из книжки "Физики продолжают шутить":
Цитата:
Если использовать тщательно отобранные и безупречно подготовленные исходные материалы, то при наличии некоторого навыка из них можно сконструировать электрическую цепь, для которой измерения отношения тока к напряжению, даже если они производятся в течение ограниченного времени, дают значения, которые после введения соответствующих поправок оказываются равными постоянной величине.
...А во-вторых, что самое интересное, градиент этой функции можно вычислить точно и за очень короткое время...
Это тоже немного неточно. При обучении многослойного персептрона минимизируется не фукция персептрона, а невязка (обычно, сумма квадратов отклонений рассчитанных значений выходов от "плановых"). И градиент (в пространстве весов) вычисляется именно для невязки.
...Т.е. если какая-либо задача может быть сформулирована в терминах минимизации многомерной функции, то если представить ее в виде многослойного персептора, процесс ее минимизации можно ускорить на порядки.
Ах, если бы... Оптимизации в процессе обучения НС свойственны те же проблемы, что и другим методам. А именно, хождение по оврагам, сползание в локальные минимумы, плохая обусловленность якобиана и т.п. Так что проблем везде хватает