День добрый.
Моделирую нейронную сеть с шумами. Для шума использую беллый гауусов шум, генерируя случайную величину каждый раз, независимо от предыдущего шага. Равномерно распределенную величину, полученную обычным rand(), преобразую в нормальную.
И тут возник вопрос. Если я в системе меняю шаг по времени, то и спектр шума меняет свою "плотность", а такого, как мне кажется, быть не должно.
Посмотрел оригинальную статью, и оказалось, что там действительно указано, что надо использовать гауссов шум с мат ожиданием, равным 0, и корреляционной функцией
![$\left\langle\xi(t),\xi(t+\tau)\right\rangle=D\delta(\tau)$ $\left\langle\xi(t),\xi(t+\tau)\right\rangle=D\delta(\tau)$](https://dxdy-01.korotkov.co.uk/f/0/d/8/0d878f91b4a3e761b44fc0b045f8353882.png)
. Что здесь есть
![$\delta(\tau)$ $\delta(\tau)$](https://dxdy-01.korotkov.co.uk/f/c/6/8/c686769cbfdef36007ee2528bdd6868782.png)
, и как использовать эту корреляционную функцию? Дисперсия должна зависеть от шага по времени или тут что-то другое подразумевается? и как это можно будет реализовать?
Заранее спасибо за разъяснения.