2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 Нахождение вероятности по индикаторным функциям
Сообщение09.04.2009, 21:33 
Помогите с решением следующего.

Необходимо научиться вычислять вероятность события по выражению,
построенному на основе ряда индикаторных функций.

Один из примеров:

Исходные данные:
- поведение системы рассматривается на интервале$[0,t]$
- $\gamma, \eta_1, \eta_2, \xi_1$ - время, случайная наработка до
некоторого события ($\gamma$ - случайная наработка на отказ объекта,
$\eta_1, \eta_2$ - случайная наработка на скрытый отказ системы защиты по
мощности и температуре $\xi_1$ - аналогично для ложного отказа системы защиты по
мощности)
- $\alpha$ - известное время (время, через которое начнется повышение
температуры)
- функции распределения:
для $\gamma$: $F_\gamma(t)=P(\gamma\le t)$
для $\xi_1$: $F_{\xi_1}(t)=P(\xi_1 \le t)$
для $\eta_1, \eta_2$: $F_{\eta_1}(t)=P(\eta_1 \le t)$,
$F_{\eta_2}(t)=P(\eta_2 \le t)$ соответственно

Неясно каким образом из выражения:
$$P_0(t)=MP(
	I_{\eta_1>\gamma} I_{\eta_2>\gamma+\alpha} \gamma \land \xi_1 \land (\gamma+\alpha)+
	I_{\eta_1>\gamma} I_{\eta_2\le\gamma+\alpha} \gamma \land \xi_1 +$$$$
	I_{\eta_1\le\gamma} I_{\eta_2>\gamma+\alpha} \xi_1 \land (\gamma+\alpha) +
	I_{\eta_1\le\gamma} I_{\eta_2\le\gamma+\alpha} \xi_1 < t
),$$

где $I_{\eta_1\le\gamma}$ - функция-индикатор, причем
$I_{\eta_1\le\gamma}=1$, если $\eta_1\le\gamma$,
и $I_{\eta_1\le\gamma}=0$, если $\eta_1>\gamma$,
а $\gamma \land \xi_1 = min (\gamma, \xi_1)$

Было получено выражение:
$$P_0(t)=1 - \overline{F}_{\xi_1}(t) \biggl( 
	\int\limits_t^\infty \overline{F}_{\eta_1}(y)dF_\gamma(y)+ $$$$
	S(t-\alpha) \biggl( \ 
	\int\limits_{t-\alpha}^\infty F_{\eta_1}(y) 
	\overline{F}_{\eta_2}(y+\alpha)dF_\gamma(y)+
	\int\limits_0^\infty F_{\eta_1}(y) F_{\eta_2}(y+\alpha)dF_\gamma(y)
\biggr) \biggr),$$

где $S(t-\alpha)$ - ступенчатая единичная функция,
$S(t-\alpha) = 1$, если
$t-\alpha \ge 0$, и $S(t-\alpha) = 0$, если $t-\alpha<0$

[А.И. Перегуда, Р.Е. Твердохлебов Обобщение математической модели АТК "Объект
защиты - система безопасности" //Известия вузов. Ядерная энергетика, № 2 , 2006]

Привожу необходимую информацию по рассматриваемой задаче:

С каждым событием $A \in \mathscr{A}$ можно связать случайную величину
$$I_A=I_A(\omega)= 
\left\{ \begin{array}{l}
1, \text{если}\ \omega \in A, \\
0, \text{если}\ \omega \notin A
\end{array} \right.$$
Называемую индикатором события $A$
$M$ - математическое ожидание.
Математическое ожидание индикатора события равно вероятности этого события:
$$MI_A=P(A).$$

[Севастьянов Б.А. Курс теории вероятности и математической статистики. – М.:
Наука, 1982. – 256 с.]

Если случайная величина $\xi$ имеет функцию распределения
$F(x)$,математическое ожидание определяется как
$$M\xi = \int\limits_{-\infty}^{\infty}xdF(x)$$

Свойства математического ожидания:
1. Математическое ожидание постоянной $C$ равно этой же постоянной:
$MC = C$.
2. Постоянный множитель выносится за знак математического ожидания:
$M\ C\xi = C\ M\xi$.
3. Математическое ожидание суммы любых случайных величин (как угодно связанных)
равно сумме их математических ожиданий:
$M(\xi\eta) = M\xi + M\eta$.
4. Математическое ожидание произведения независимых случайных величин равно
произведению их математических ожиданий:
$M\xi\eta = M\xi \ M\eta$

[Гнеденко Б.В., Беляев Ю.К., Соловьев А.Д. Математические методы в теории
надежности. М.: "Наука", 1965. – 524 с]

Более простой пример с использованием аналогичных методов:

Допустим $X$ и $Y$ - независимые непрерывные случайные переменные, имеющие плотности распределения $f_X$ и $f_Y$, соответственно.
Необходимо вычислить $P\{X<Y\}$.
В зависимости от значения принимаемого $Y$

$$\begin{aligned}
P (X<Y)
&= \int\limits_{-\infty}^{\infty} P(X<Y|Y=y)f_Y(y)dy\\
&= \int\limits_{-\infty}^{\infty} P(X<y|Y=y)f_Y(y)dy\\
&= \int\limits_{-\infty}^{\infty} P(X<y)f_Y(y)dy\\
&= \int\limits_{-\infty}^{\infty} F_X(y)f_Y(y)dy,
\end{aligned}$$

где
$$F_X(y) = \int\limits_{-\infty}^{y} f_X(x)dx $$

[M.Ross Introduction to Probability Models Ninth Edition. Sheldon
University of California Berkeley, California, 2007.]

Тем не менее мне все равно не удалось понять как решаются такие задачи.
Возьмем простой пример.
- поведение системы рассматривается на интервале $[0,t]$
- $\gamma, \eta_1, \eta_2$ - время, случайная наработка до некоторого события
- функции распределения:
для $\gamma$: $F_\gamma(t)=P(\gamma\le t)$
для $\eta_1, \eta_2$: $F_{\eta_1}(t)=P(\eta_1 \le t)$,
$F_{\eta_2}(t)=P(\eta_2 \le t)$ соответственно

Как от выражения вида
$$P(t) = MP(I_{\gamma>\eta_2} I_{\eta_2 \le \eta_1}\eta_2<t) $$

Перейти к выражению, построенному на функциях распределения?

 
 
 
 
Сообщение11.04.2009, 20:09 
К сожалению, я не смог найти в Донецке рассматриваемой статьи Перегуда и Твердохлебова. (Ни в библиотеке университета, ни в областной, ни в Центральной научно-технической библиотеке — томов серии «Ядерная энергетика» за последние годы нет.)
Я искал эту статью по нескольким причинам.
1. В первую очередь, мне не понятно обозначение $MP$, возможно потому, что я далек от ТВ.
2. В сообщении не указано, что обозначено через $\overline F$.
3. Случайные величины, скорее всего, предполагаются независимыми.

Для пояснения позволю себе привести более простой пример, чем тот, который Вы предлагаете рассмотреть.

Пример 0. Пусть случайные величины $\eta$ и $\xi$ независимы и одинаково равномерно распределены на $[0, 1]$. Найдем $P(t) = P(I_{\xi < \eta}\xi < t)$.
Множество значений пары случайных величин удобно для наглядности представить графически: пусть ось абсцисс — это ось $\xi$, а ось ординат — это ось $\eta$. При $t < 0$ вероятность события $I_{\xi < \eta}\xi < t$ равна нулю. При $0 \le t < 1$ события $I_{\xi < \eta}\xi < t$ произойдет, если точка подает ниже диагонали квадрата, идущей из начала координат в точку (1,1), либо если попадаем выше диагонали и $\xi < t$. Вероятность этих событий равна $1/2 + t - t^2/2$. Наконец, при $t>1$ вероятность равна 1. Т.е.
$P(t) = P(I_{\xi < \eta}\xi < t) = \left\{\begin{array}{l}
0, \quad t<  0; \\
1/2 + t - t^2/2, \quad 0 \le t < 1; \\
1, \quad t \ge 1.
\end{array}\right$$
Случай с тремя независимыми и одинаково равномерно на $[0, 1]$ распределенными случайными величинами аналогичен рассмотренному (вместо квадрата будет куб). В обоих случаях $P(\zeta< t)$ — это число (здесь $\zeta$ — это случайная величина, включающая произведение индикаторов, в примере 0 — это $I_{\xi < \eta}\xi$).

Добавлено спустя 1 час 12 секунд:

Плохо написал. Надо было написать: $P(\zeta < t)$ — это число, при каждом фиксированном $t$ (т.е. детерминированная функция $t$), и мне непонятно, о каком математическом ожидании идет речь.

 
 
 
 
Сообщение11.04.2009, 21:12 
Цитата:
К сожалению, я не смог найти в Донецке рассматриваемой статьи Перегуда и Твердохлебова.


Как же я не догадался сразу ее выложить:
http://dl.getdropbox.com/u/820526/Number2%282006%29.pdf
стр. 31

Цитата:
1. В первую очередь, мне не понятно обозначение $MP$, возможно потому, что я далек от ТВ.
2. В сообщении не указано, что обозначено через $\overline F$.

В статье это также не поясняется.

Цитата:
3. Случайные величины, скорее всего, предполагаются независимыми.

Да.

Цитата:
Пример 0. Пусть случайные величины $\eta$ и $\xi$ независимы и одинаково равномерно распределены на $[0, 1]$....

А как же быть с произвольным распределением?
Вообще, идея с графическим представлением хорошая.

 
 
 
 Re: Нахождение вероятности по индикаторным функциям
Сообщение12.04.2009, 10:30 
Аватара пользователя
Kostafey писал(а):
Было получено выражение:
$$P_0(t)=1 - \overline{F}_{\xi_1}(t) \biggl( 
	\int\limits_t^\infty \overline{F}_{\eta_1}(y)dF_\gamma(y)+ $$$$
	S(t-\alpha) \biggl( \ 
	\int\limits_{t-\alpha}^\infty F_{\eta_1}(y) 
	\overline{F}_{\eta_2}(y+\alpha)dF_\gamma(y)+
	\int\limits_0^\infty F_{\eta_1}(y) F_{\eta_2}(y+\alpha)dF_\gamma(y)
\biggr) \biggr),$$

Как я понимаю, все участвующие случайные величины тут независимы и неотрицательны. Через $\overline F_\xi(x)$ всегда обозначается правый "хвост" функции распределения $\mathsf P(\xi > x)$.
Это выражение в точности равно
$$P_0(t)=1 - \mathsf P\bigl(\xi_1 > t; \ \gamma > t; \ \eta_1 > \gamma \bigr) \ - $$
$$ - \ \mathsf P \bigl(\xi_1 > t; \ \gamma > t-\alpha; \ \eta_2 > \gamma + \alpha; \  \eta_1 \leqslant \gamma; \ t\geqslant \alpha \bigr) \ - $$
$$ - \ \mathsf P\bigl( \xi_1 > t; \  \eta_1 \leqslant \gamma; \ \eta_2 \leqslant \gamma+\alpha; \  t\geqslant \alpha \bigr). $$

Просто $$\mathsf P(\xi < \eta)=\int\limits_{-\infty}^\infty F_\xi(y)dF_\eta(y)$$ для независимых с.в. $\xi$ и $\eta$.

Если преобразовать, перейдя к противоположному событию, первоначальное выражение для $P_0(t)$ (в котором обозначение $MP$ - непонятно что), то получим:
$$
P_0(t)=1-\mathsf P\bigl(\gamma \cdot I_{\eta_1>\gamma; \, \eta_2 > \gamma+\alpha} > t; \ \xi_1 > t; \ \gamma+\alpha > t\bigr) \ - $$
$$ - \ \mathsf P\bigl( \gamma\cdot I_{\eta_1 > \gamma; \, \eta_2 \leqslant \gamma+\alpha} > t; \ 
\ \xi_1 > t\bigr) \ - $$
$$ - \ \mathsf P\bigl( \xi_1\cdot I_{\eta_1 \leqslant \gamma; \, \eta_2 > \gamma+\alpha} > t; \ \gamma+\alpha > t\bigr) \ - $$
$$ - \ \mathsf P\bigl( \xi_1\cdot I_{\eta_1 \leqslant \gamma; \, \eta_2 \leqslant \gamma+\alpha} > t\bigr).$$

Сумма вероятностей тут возникла оттого, что события под индикаторами попарно несовместны и образуют разбиение достоверного события, т.е. из них в эксперименте случается ронво одно. Дальше от индикаторов следует, видимо, избавиться так (беру первую вероятность):

$$
\mathsf P\bigl(\gamma \cdot I_{\eta_1>\gamma; \, \eta_2 > \gamma+\alpha} > t; \ \xi_1 > t; \ \gamma+\alpha > t\bigr) = 
\mathsf P\bigl(\gamma > t; \ \xi_1 > t; \ \gamma+\alpha > t; \ \eta_1>\gamma; \, \eta_2 > \gamma+\alpha \bigr).
$$

После чего сумму вероятностей можно, наверное, как-то упростить, уменьшив число слагаемых до требуемых трёх.

 
 
 
 
Сообщение12.04.2009, 17:03 
--mS--
А что обозначает $;$ в этих выражениях?

И все же. Как от выражения
$$ \mathsf P\bigl(\gamma \cdot I_{\eta_1>\gamma; \, \eta_2 > \gamma+\alpha} > t; \
\xi_1 > t; \ \gamma+\alpha > t\bigr) =  \mathsf P\bigl(\gamma > t; \ \xi_1 > t; \
\gamma+\alpha > t; \ \eta_1>\gamma; \, \eta_2 > \gamma+\alpha \bigr). $$
перейти к выражению, построенному на функциях распределения случайных величин?

 
 
 
 
Сообщение12.04.2009, 17:29 
Аватара пользователя
Kostafey писал(а):
--mS--
А что обозначает $;$ в этих выражениях?

Точка с запятой означает перечисление событий, происходящих одновременно.

Kostafey писал(а):
И все же. Как от выражения
$$ \mathsf P\bigl(\gamma \cdot I_{\eta_1>\gamma; \, \eta_2 > \gamma+\alpha} > t; \
\xi_1 > t; \ \gamma+\alpha > t\bigr) =  \mathsf P\bigl(\gamma > t; \ \xi_1 > t; \
\gamma+\alpha > t; \ \eta_1>\gamma; \, \eta_2 > \gamma+\alpha \bigr). $$
перейти к выражению, построенному на функциях распределения случайных величин?


В моём сообщении выше подобные переходы на примере трёх интегралов продемонстрированы. Если $\alpha>0$, то $\{\gamma > t\} \subseteq \{\gamma+\alpha >t\}$, поэтому данная вероятность равна
$$
\overline F_{\xi_1}(t)\cdot \int\limits_{t}^{\infty} \overline F_{\eta_1}(y) \overline F_{\eta_2}(y+\alpha) \, d F_\gamma(y).
$$

Или вопрос о механизме? Он такой, как Вы писали выше с плотностями.
$$
\mathsf P(\xi < \eta) = \int\limits_{\mathbb R} \mathsf P(\xi < y~ |~ \eta=y)\, dF_\eta(y)=\int\limits_{\mathbb R} F_\xi(y) \, dF_\eta(y).$$
Во втором равенстве использована независимость с.в. Можно по-другому:
$$
\mathsf P(\xi < \eta) =\int\limits_{\mathbb R} \mathsf P(y < \eta ~|~ \xi=y)\, dF_\xi(y)=  \int\limits_{\mathbb R} \overline F_\eta(y) \,dF_\xi(y).
$$

 
 
 [ Сообщений: 6 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group