Часто бывает, что случайным распределением управляют скрытые переменные, а нейросеть пытается аппроксимировать это распределение через уже её, сети, скрытые переменные (веса и т.д.). Цель - чтобы на выходе сетка выдавала распределение, которое максимально правдоподобно "настоящему". При этом в некоторых работах упоминаются скрытые марковские модели и марковские процессы. А я не могу толком понять разницу между марковским и не марковским.
Согласно вики, марковский процесс - это такой, для которого можно предсказать будущее, основываясь только на настоящем. В качестве примера
не-марковского процесса приводят броуновское движение:
Цитата:
В самом деле, броуновская частица, двигаясь в вязкой среде, увлекает окружающие её частицы среды, которые в свою очередь начинают влиять на броуновскую частицу. Такое влияние зависит от характера движения частиц среды, который в свою очередь зависит от того, как двигалась броуновская частица ранее. Таким образом, на движение броуновской частицы оказывает влияние все её прошлое поведение в вязкой среде.
Ну и вот - если под текущим состоянием понимать, скажем, координаты этих всех частиц, то все логично - я действительно не могу, основываясь только на этих координатах, предсказать следующее состояние. Мне не хватает векторов скоростей.
Но если взять и сказать: "состояние системы частиц в каждый момент времени описывается наблюдаемыми переменными (координаты частиц) и скрытыми (их скорости), то вот уже, как бы, процесс стал марковским
. Зная координаты и скорости в текущий момент, я могу рассчитать их значение (и скоростей, и координат) для следующего момента. И никакого прошлого мне знать не надо.
Когда я пытаюсь придумать не марковский процесс, то что бы я ни представила себе - оно все сводится к марковскому добавлением скрытых переменных в описание состояния системы.
Доктор, помогите. Что я понимаю не правильно?