2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 Марковские цепи, вывод формулы.
Сообщение19.02.2009, 00:35 
В одной книге не совсем ясен один момент.
Вводятся следующие определения:
Марковская цепь - последовательность случайных точек
$$x_1, x_2, ..., x_n,..., $$
такая, что распределение $$x_n$$ вполне определяется заданием $$x_{n-1}$$, или записав в терминах плотности распределения
$$p_n(x_n|x_{n-1}=x',...,x_2=s_2,x_1=s_1)=p_n(x_n|x_{n-1}=x')=r(x',x);$$
$$r(x',x) -\text{ плотность вероятности перехода;}$$
$$\pi(x) -\text{ начальное распределение;}$$
$$p(x') -\text{ вероятность обрыва в точке }x'$$
N - случайный номер последнего состояния.
EN, т.е. математическое ожидание конечно.
Затем вводится еще понятие переходной плотности
$$p(x',x) = r(x',x)[1-p(x')]$$ (т.е. если домножить на $$dx$$ получится вероятность того, что мы окажемся в $$dx$$ около $$x$$ при условии, что до этого были в точке $$x'$$ и в этой точке процесс не оборвался).
После говорят о том, что "вычислим вероятность события {N = n}"
$$P\left\{N=n\right\}=\left\{\text{т.е. что  точка обрыва будет по счету n-ой, на сколько я понял}\right\}=\mathbf{E}[P(N=n|x_0,...,x_n)]=\mathbf{E}\left[p(x_n)\prod\limits_{k=0}^{n-1}(1-p(x_k))\right]=
$$
$$=\int\limits_X...\int\limits_X\pi(x_0)p(x_n)\left[\prod\limits_{k=0}^{n-1}(1-p(x_k)r(x_k,x_{k+1}))\right]dx_0...dx_n=$$
$$=\int\limits_X...\int\limits_X\pi(x_0)p(x_n)\left[\prod\limits_{k=0}^{n-1}p(x_k,x_{k+1}))\right]dx_0...dx_n$$

Не понятно следующее, каким образом вычисляется эта вероятность, т.е. почему она находится через математическое ожидание условной вероятности
$$\mathbf{E}[P(N=n|x_0,...,x_n)$$.
И потом вроде математическое ожидание случайной величины $$\xi$$ вычисляется как
$$\mathbf{E}\xi=\int\limits_X xf_{\xi}(x)dx$$,
где $$x$$ - значения принимаемые случайной величиной $$\xi$$,
$$f_{\xi}(x)$$ - плотность распределения вероятности случайной величины $$\xi$$.
Подскажите, как здесь понимается на самом деле.

 
 
 
 
Сообщение21.02.2009, 16:49 
Аватара пользователя
$$
P\{N=n\}=E\left({\b 1}_{\{N=n\}}\right)=E\left(E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)=E\left(P\left\{N=n|x_0,\dots,x_n\right\}\right)
$$

Anton_74 писал(а):
И потом вроде математическое ожидание случайной величины $$\xi$$ вычисляется как
$$\mathbf{E}\xi=\int\limits_X xf_{\xi}(x)dx$$,
где $$x$$ - значения принимаемые случайной величиной $$\xi$$,
$$f_{\xi}(x)$$ - плотность распределения вероятности случайной величины $$\xi$$.

Верно. И в Вашем случае
$$
f_\xi(x_0,x_1,\dots,x_n)=\pi(x_0)\prod\limits_{k=0}^{n-1}r(x_k,x_{k+1})
$$

 
 
 
 
Сообщение21.02.2009, 17:19 
Henrylee писал(а):
$$
P\{N=n\}=E\left({\b 1}_{\{N=n\}}\right)=E\left(E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)=E\left(P\left\{N=n|x_0,\dots,x_n\right\}\right)
$$


Т.е
$$P\{N=n\}$$
равняется математическому ожиданию некоторой случайной величины, которая принимает значения равные 1 если N=n?

 
 
 
 
Сообщение21.02.2009, 17:24 
Аватара пользователя
Anton_74 писал(а):
Henrylee писал(а):
$$
P\{N=n\}=E\left({\b 1}_{\{N=n\}}\right)=E\left(E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)=E\left(P\left\{N=n|x_0,\dots,x_n\right\}\right)
$$


Т.е
$$P\{N=n\}$$
равняется математическому ожиданию некоторой случайной величины, которая принимает значения равные 1 если N=n?

... и ноль во всех остальных точках пространства элементарных событий. Это, по-простому, индикатор.

Доказательство равенства - в полстрочки.

 
 
 
 
Сообщение21.02.2009, 21:03 
Henrylee писал(а):
Anton_74 писал(а):
Henrylee писал(а):
$$
P\{N=n\}=E\left({\b 1}_{\{N=n\}}\right)=E\left(E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)=E\left(P\left\{N=n|x_0,\dots,x_n\right\}\right)
$$


Т.е
$$P\{N=n\}$$
равняется математическому ожиданию некоторой случайной величины, которая принимает значения равные 1 если N=n?

... и ноль во всех остальных точках пространства элементарных событий. Это, по-простому, индикатор.

Доказательство равенства - в полстрочки.


Спасибо огромное, Henrylee. Смысл, я понял, это главное.

1)Но какое-то странное обозначение, $$E(P\{N=n|x_0, ..., x_n\})$$.
Как будто математическое ожидание Вероятности.
Может не те книги читаю, но до этого никогда такое не видел.

2)Да еще кстати запись $${\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)$$ обозначает случайную величину такую, что точка обрыва будет по номеру n и до этого этого имели место различные точки $$x_0, \dots,x_n$$?

3)Может показаться, что я ничего не понимаю, но я пытаюсь рассжудать из тех знаний которыми владею. Как так?
$$E\left(E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)$$
Мат ожидание от мат ожидание, будет мат ожидание от константы, а это будет константа.
Мне казалось надо бы написать:
$$E\left({\b 1}_{\{N=n\}}\right)=E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)$$.
Но, наверное, в твоей записи есть смысл, который я пока не вижу, поясни если не сложно.

 
 
 
 
Сообщение21.02.2009, 23:07 
Аватара пользователя
Вероятно, вся путаница связана с не очень удачными обозначениями. Сейчас проясню.
Anton_74 писал(а):

Спасибо огромное, Henrylee. Смысл, я понял, это главное.

1)Но какое-то странное обозначение, $$E(P\{N=n|x_0, ..., x_n\})$$.
Как будто математическое ожидание Вероятности.
Может не те книги читаю, но до этого никогда такое не видел.

Это мат.ожидание условной вероятности события относительно системы случайных велчин. А этот объект (условная вероятность...) есть случайная величина. Именно в этом месте под $x_0,\dots,x_n$ понимаются случайные величины марковской последовательности.

Anton_74 писал(а):
2)Да еще кстати запись $${\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)$$ обозначает случайную величину такую, что точка обрыва будет по номеру n и до этого этого имели место различные точки $$x_0, \dots,x_n$$?

Эта запись ничего не обозначает. А вот эта запись
$$
E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)
$$
означает условное мат. ожидание с.в относительно системы с.в. и само является с.в.


Anton_74 писал(а):
3)Может показаться, что я ничего не понимаю, но я пытаюсь рассжудать из тех знаний которыми владею. Как так?
$$E\left(E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)$$
Мат ожидание от мат ожидание, будет мат ожидание от константы, а это будет константа.

Внутри внешних скобок не константа, а с.в.! (см. выше). Поэтому
Anton_74 писал(а):
$$E\left({\b 1}_{\{N=n\}}\right)=E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)$$.

это не верно, т.к. слева константа, а справа с.в.

В формулах, до того, как появляются интегралы, $x_0,\dots,x_n$ - случайные величины марковской последовательности. В записи интегралов этими буквами обозначены уже переменные интегрирования, т.е. числовые значения этих случайных величин.

Добавлено спустя 9 минут 33 секунды:

Еще раз об этом равенстве.
Henrylee писал(а):
$$
P\{N=n\}=E\left({\b 1}_{\{N=n\}}\right)=E\left(E\left({\b 1}_{\{N=n\}}|x_0,\dots,x_n\right)\right)=E\left(P\left\{N=n|x_0,\dots,x_n\right\}\right)
$$



Первый переход, как я уже говорил, легко доказать. (слева мера множества, справа - интеграл от индиктора множества).
Второй переход - из свойств у.м.о. - мат ожидания с.в. и ее у.м.о-я относительно других с.в. - равны. Третий переход - по определению условной вероятности события относительно с.в.

 
 
 [ Сообщений: 6 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group