Я хотел бы понять смысл вычислений в нейронных сетях. Толстые книги читать лень, а в интернете простого объяснения не найти. Вот как, по моему, выгляди простая нейронная сеть.
Имеются входные данные
![$x_1, x_2$ $x_1, x_2$](https://dxdy-03.korotkov.co.uk/f/a/b/c/abc574bb2f36d89e011d4a52627367cf82.png)
. Имеется выходное значение
![$z$ $z$](https://dxdy-04.korotkov.co.uk/f/f/9/3/f93ce33e511096ed626b4719d50f17d282.png)
. Беруться произвольные веса
![$w_1, w_2$ $w_1, w_2$](https://dxdy-03.korotkov.co.uk/f/6/8/f/68f7fddd632637ed5717ff8b973e5e8582.png)
и какая-то функция обучения
![$f$ $f$](https://dxdy-02.korotkov.co.uk/f/1/9/0/190083ef7a1625fbc75f243cffb9c96d82.png)
(пока плохо понимаю какая именно). Далее весa правятся до достижения приемлемого уровня ошибки. Правка происходит по формуле.
![$\Delta w_1 = \frac{df(y)}{dy}|_{x_1w_1+ x_2w_2}(f(x_1w_1+ x_2w_2) -z)x_1$ $\Delta w_1 = \frac{df(y)}{dy}|_{x_1w_1+ x_2w_2}(f(x_1w_1+ x_2w_2) -z)x_1$](https://dxdy-01.korotkov.co.uk/f/c/f/8/cf8ebe8a731000a996a26a01409f4af182.png)
тоже самое для
![$\Delta w_2$ $\Delta w_2$](https://dxdy-03.korotkov.co.uk/f/e/6/d/e6d6f912a73ccb11a902217d3f5d447f82.png)
Я не понимаю куда это все ведёт. С одно стороны очень похоже на минимизацию кваратичного отклонения
![$g=(f(x_1w_1+ x_2w_2)-z)^2$ $g=(f(x_1w_1+ x_2w_2)-z)^2$](https://dxdy-04.korotkov.co.uk/f/7/f/9/7f9aed3308ad7ecb6d215e0adde3d4a582.png)
![$\frac{\partial g(w_1)}{\partial w_1} = 2 (f(x_1w_1+ x_2w_2) - z) \frac{df}{dy}|_{x_1w_1+ x_2w_2}x_1=0$ $\frac{\partial g(w_1)}{\partial w_1} = 2 (f(x_1w_1+ x_2w_2) - z) \frac{df}{dy}|_{x_1w_1+ x_2w_2}x_1=0$](https://dxdy-01.korotkov.co.uk/f/0/5/d/05dc8d84971f3dcf51069c1916736ab682.png)
А далее это что шаг Нютоновского метода для отыскания ноля производной? Как-то не похоже.