в тех областях, где данных и поблизости нет, аппроксимация будет говорить "не знаю" (давать нуль). Ну так так и нейронная будет делать
Тут вы специально сообщаете модели неверные данные. Причем, скорее всего, их получается гораздо больше, чем верных.
Ладно, тогда чтобы сильно не обманывать модель, заполним недостающие данные линейными аппроксимациями :)
Цитата:
И господа, я напоминаю, вопрос не в "почему не используют вместо нейросетей полиномы Бернштейна", а "почему сети оказываются лучше любого другого способа аппроксимации".
Потому что у них хорошая устойчивость к шуму во входных данных. И потому что нас по какой-то непонятной причине интересуют функции, которые хорошо приближаются нейросетями:)
Кстати, вот буквально сегодня отметил, читая Вольфрама (тот, который Mathematica), что, возможно, одной из причин выигрышности нейронной сети является то, что она моделирует ту же метрику в распознавании (по крайней мере изображений), что и люди. То есть, ошибки нейронной сети понятны людям (сродни "сеть обозналась, потому что и я сам бы тоже, если бы не пригляделся и много раз не встречался, то мог принять эту штуку за вот ту").
Цитата:
хотелось бы услышать логическое обоснование
А какое тут могло бы быть логическое обоснование? Есть конкретные результаты -
http://yann.lecun.com/exdb/mnist/.
:) Это не обоснование. Обоснование - это когда вы укажете, почему не обязательно учитывать двумерность (непрерывность в
) изображения и/или как это учитывается в тех ситуациях, что вы описали.
_hum_, а то, что вы говорите, относится к нейтронным сетям без обратных связей или без такового ограничения?
А разве это принципиально (обратные связи могут
качественно что-то иное, нежели обычные)? но вообще, я про простые вел речь :)
Ну, на естественный отбор я бы не стал замахиваться.
А что известны биологические системы распознавания, построенные на других, нежели нейронные, принципах? :)
Цитата:
Лично я считаю, что (безынерционная) нейронная сеть попросту реализует некоторую аппроксимирующую функцию с большим числом параметров
Ну, это как бы изначально предполагалось очевидным :) Вопрос, почему в качестве аппроксимирующего параметрического семейства выбирается система, состоящая из функций, полученных из базовых монотонных сигма-образных функций с помощью конечного числа операций суперпозиции и взвешенного суммирования.
Цитата:
причём процедура расчёта этих параметров сложным нелинейным образом зависит от аппроксимируемой функции
Всякая аппроксимация зависит от аппроксимируемой функции :) А то, что зависимость сложная и нелинейная, так это не плюс, а скорее минус, ибо добавляет головной боли.
Цитата:
а сама аппроксимация обладает большой гибкостью и универсальностью
Ну, я то же самое про полиномы Бернштена могу сказать :)
Цитата:
Причём сама процедура расчёта этих коэффициентов (аппроксимации) может быть получена при обучении сети и оставаться неизвестной в дальнейшем, обеспечивая заложенные при обучении критерии.
Вы ничего не путаете? Процедура расчета ведь изначально задана (это алгоритма обучения). А то, что коэффициенты не обязательно в явном виде выписывать для построения искомого решателя, так это просто неявное задание функции. И что тут такого...
Цитата:
Что касается приведённого вами примера аппроксимации на основе линейной комбинации некоторых базисных функций (пусть и полиномов Берштейна), то сразу следует указать на её ограниченность:
[...]
аппроксимация с выбранным методом расчёта коэффициентов аппроксимирующей функции, которую вы привели является линейной аппроксимацией. Нелинейная более универсальна и может быть получена при использовании нейронных сетей, но и не только их.
Этого я не понял. В чем ограниченность-то и неуниверсальность? Если аппроксимация позволяет приблизить любую функцию, то какая разница, каким образом это приближение строится.