2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


В этом разделе нельзя создавать новые темы.

Если Вы хотите задать новый вопрос, то не дописывайте его в существующую тему, а создайте новую в корневом разделе "Помогите решить/разобраться (М)".

Если Вы зададите новый вопрос в существующей теме, то в случае нарушения оформления или других правил форума Ваше сообщение и все ответы на него могут быть удалены без предупреждения.

Не ищите на этом форуме халяву, правила запрещают участникам публиковать готовые решения стандартных учебных задач. Автор вопроса обязан привести свои попытки решения и указать конкретные затруднения.

Обязательно просмотрите тему Правила данного раздела, иначе Ваша тема может быть удалена или перемещена в Карантин, а Вы так и не узнаете, почему.



Начать новую тему Ответить на тему
 
 Нахождение вероятности по индикаторным функциям
Сообщение09.04.2009, 21:33 


25/03/09
12
Помогите с решением следующего.

Необходимо научиться вычислять вероятность события по выражению,
построенному на основе ряда индикаторных функций.

Один из примеров:

Исходные данные:
- поведение системы рассматривается на интервале$[0,t]$
- $\gamma, \eta_1, \eta_2, \xi_1$ - время, случайная наработка до
некоторого события ($\gamma$ - случайная наработка на отказ объекта,
$\eta_1, \eta_2$ - случайная наработка на скрытый отказ системы защиты по
мощности и температуре $\xi_1$ - аналогично для ложного отказа системы защиты по
мощности)
- $\alpha$ - известное время (время, через которое начнется повышение
температуры)
- функции распределения:
для $\gamma$: $F_\gamma(t)=P(\gamma\le t)$
для $\xi_1$: $F_{\xi_1}(t)=P(\xi_1 \le t)$
для $\eta_1, \eta_2$: $F_{\eta_1}(t)=P(\eta_1 \le t)$,
$F_{\eta_2}(t)=P(\eta_2 \le t)$ соответственно

Неясно каким образом из выражения:
$$P_0(t)=MP(
	I_{\eta_1>\gamma} I_{\eta_2>\gamma+\alpha} \gamma \land \xi_1 \land (\gamma+\alpha)+
	I_{\eta_1>\gamma} I_{\eta_2\le\gamma+\alpha} \gamma \land \xi_1 +$$$$
	I_{\eta_1\le\gamma} I_{\eta_2>\gamma+\alpha} \xi_1 \land (\gamma+\alpha) +
	I_{\eta_1\le\gamma} I_{\eta_2\le\gamma+\alpha} \xi_1 < t
),$$

где $I_{\eta_1\le\gamma}$ - функция-индикатор, причем
$I_{\eta_1\le\gamma}=1$, если $\eta_1\le\gamma$,
и $I_{\eta_1\le\gamma}=0$, если $\eta_1>\gamma$,
а $\gamma \land \xi_1 = min (\gamma, \xi_1)$

Было получено выражение:
$$P_0(t)=1 - \overline{F}_{\xi_1}(t) \biggl( 
	\int\limits_t^\infty \overline{F}_{\eta_1}(y)dF_\gamma(y)+ $$$$
	S(t-\alpha) \biggl( \ 
	\int\limits_{t-\alpha}^\infty F_{\eta_1}(y) 
	\overline{F}_{\eta_2}(y+\alpha)dF_\gamma(y)+
	\int\limits_0^\infty F_{\eta_1}(y) F_{\eta_2}(y+\alpha)dF_\gamma(y)
\biggr) \biggr),$$

где $S(t-\alpha)$ - ступенчатая единичная функция,
$S(t-\alpha) = 1$, если
$t-\alpha \ge 0$, и $S(t-\alpha) = 0$, если $t-\alpha<0$

[А.И. Перегуда, Р.Е. Твердохлебов Обобщение математической модели АТК "Объект
защиты - система безопасности" //Известия вузов. Ядерная энергетика, № 2 , 2006]

Привожу необходимую информацию по рассматриваемой задаче:

С каждым событием $A \in \mathscr{A}$ можно связать случайную величину
$$I_A=I_A(\omega)= 
\left\{ \begin{array}{l}
1, \text{если}\ \omega \in A, \\
0, \text{если}\ \omega \notin A
\end{array} \right.$$
Называемую индикатором события $A$
$M$ - математическое ожидание.
Математическое ожидание индикатора события равно вероятности этого события:
$$MI_A=P(A).$$

[Севастьянов Б.А. Курс теории вероятности и математической статистики. – М.:
Наука, 1982. – 256 с.]

Если случайная величина $\xi$ имеет функцию распределения
$F(x)$,математическое ожидание определяется как
$$M\xi = \int\limits_{-\infty}^{\infty}xdF(x)$$

Свойства математического ожидания:
1. Математическое ожидание постоянной $C$ равно этой же постоянной:
$MC = C$.
2. Постоянный множитель выносится за знак математического ожидания:
$M\ C\xi = C\ M\xi$.
3. Математическое ожидание суммы любых случайных величин (как угодно связанных)
равно сумме их математических ожиданий:
$M(\xi\eta) = M\xi + M\eta$.
4. Математическое ожидание произведения независимых случайных величин равно
произведению их математических ожиданий:
$M\xi\eta = M\xi \ M\eta$

[Гнеденко Б.В., Беляев Ю.К., Соловьев А.Д. Математические методы в теории
надежности. М.: "Наука", 1965. – 524 с]

Более простой пример с использованием аналогичных методов:

Допустим $X$ и $Y$ - независимые непрерывные случайные переменные, имеющие плотности распределения $f_X$ и $f_Y$, соответственно.
Необходимо вычислить $P\{X<Y\}$.
В зависимости от значения принимаемого $Y$

$$\begin{aligned}
P (X<Y)
&= \int\limits_{-\infty}^{\infty} P(X<Y|Y=y)f_Y(y)dy\\
&= \int\limits_{-\infty}^{\infty} P(X<y|Y=y)f_Y(y)dy\\
&= \int\limits_{-\infty}^{\infty} P(X<y)f_Y(y)dy\\
&= \int\limits_{-\infty}^{\infty} F_X(y)f_Y(y)dy,
\end{aligned}$$

где
$$F_X(y) = \int\limits_{-\infty}^{y} f_X(x)dx $$

[M.Ross Introduction to Probability Models Ninth Edition. Sheldon
University of California Berkeley, California, 2007.]

Тем не менее мне все равно не удалось понять как решаются такие задачи.
Возьмем простой пример.
- поведение системы рассматривается на интервале $[0,t]$
- $\gamma, \eta_1, \eta_2$ - время, случайная наработка до некоторого события
- функции распределения:
для $\gamma$: $F_\gamma(t)=P(\gamma\le t)$
для $\eta_1, \eta_2$: $F_{\eta_1}(t)=P(\eta_1 \le t)$,
$F_{\eta_2}(t)=P(\eta_2 \le t)$ соответственно

Как от выражения вида
$$P(t) = MP(I_{\gamma>\eta_2} I_{\eta_2 \le \eta_1}\eta_2<t) $$

Перейти к выражению, построенному на функциях распределения?

 Профиль  
                  
 
 
Сообщение11.04.2009, 20:09 
Заслуженный участник


12/07/07
4456
К сожалению, я не смог найти в Донецке рассматриваемой статьи Перегуда и Твердохлебова. (Ни в библиотеке университета, ни в областной, ни в Центральной научно-технической библиотеке — томов серии «Ядерная энергетика» за последние годы нет.)
Я искал эту статью по нескольким причинам.
1. В первую очередь, мне не понятно обозначение $MP$, возможно потому, что я далек от ТВ.
2. В сообщении не указано, что обозначено через $\overline F$.
3. Случайные величины, скорее всего, предполагаются независимыми.

Для пояснения позволю себе привести более простой пример, чем тот, который Вы предлагаете рассмотреть.

Пример 0. Пусть случайные величины $\eta$ и $\xi$ независимы и одинаково равномерно распределены на $[0, 1]$. Найдем $P(t) = P(I_{\xi < \eta}\xi < t)$.
Множество значений пары случайных величин удобно для наглядности представить графически: пусть ось абсцисс — это ось $\xi$, а ось ординат — это ось $\eta$. При $t < 0$ вероятность события $I_{\xi < \eta}\xi < t$ равна нулю. При $0 \le t < 1$ события $I_{\xi < \eta}\xi < t$ произойдет, если точка подает ниже диагонали квадрата, идущей из начала координат в точку (1,1), либо если попадаем выше диагонали и $\xi < t$. Вероятность этих событий равна $1/2 + t - t^2/2$. Наконец, при $t>1$ вероятность равна 1. Т.е.
$P(t) = P(I_{\xi < \eta}\xi < t) = \left\{\begin{array}{l}
0, \quad t<  0; \\
1/2 + t - t^2/2, \quad 0 \le t < 1; \\
1, \quad t \ge 1.
\end{array}\right$$
Случай с тремя независимыми и одинаково равномерно на $[0, 1]$ распределенными случайными величинами аналогичен рассмотренному (вместо квадрата будет куб). В обоих случаях $P(\zeta< t)$ — это число (здесь $\zeta$ — это случайная величина, включающая произведение индикаторов, в примере 0 — это $I_{\xi < \eta}\xi$).

Добавлено спустя 1 час 12 секунд:

Плохо написал. Надо было написать: $P(\zeta < t)$ — это число, при каждом фиксированном $t$ (т.е. детерминированная функция $t$), и мне непонятно, о каком математическом ожидании идет речь.

 Профиль  
                  
 
 
Сообщение11.04.2009, 21:12 


25/03/09
12
Цитата:
К сожалению, я не смог найти в Донецке рассматриваемой статьи Перегуда и Твердохлебова.


Как же я не догадался сразу ее выложить:
http://dl.getdropbox.com/u/820526/Number2%282006%29.pdf
стр. 31

Цитата:
1. В первую очередь, мне не понятно обозначение $MP$, возможно потому, что я далек от ТВ.
2. В сообщении не указано, что обозначено через $\overline F$.

В статье это также не поясняется.

Цитата:
3. Случайные величины, скорее всего, предполагаются независимыми.

Да.

Цитата:
Пример 0. Пусть случайные величины $\eta$ и $\xi$ независимы и одинаково равномерно распределены на $[0, 1]$....

А как же быть с произвольным распределением?
Вообще, идея с графическим представлением хорошая.

 Профиль  
                  
 
 Re: Нахождение вероятности по индикаторным функциям
Сообщение12.04.2009, 10:30 
Заслуженный участник
Аватара пользователя


23/11/06
4171
Kostafey писал(а):
Было получено выражение:
$$P_0(t)=1 - \overline{F}_{\xi_1}(t) \biggl( 
	\int\limits_t^\infty \overline{F}_{\eta_1}(y)dF_\gamma(y)+ $$$$
	S(t-\alpha) \biggl( \ 
	\int\limits_{t-\alpha}^\infty F_{\eta_1}(y) 
	\overline{F}_{\eta_2}(y+\alpha)dF_\gamma(y)+
	\int\limits_0^\infty F_{\eta_1}(y) F_{\eta_2}(y+\alpha)dF_\gamma(y)
\biggr) \biggr),$$

Как я понимаю, все участвующие случайные величины тут независимы и неотрицательны. Через $\overline F_\xi(x)$ всегда обозначается правый "хвост" функции распределения $\mathsf P(\xi > x)$.
Это выражение в точности равно
$$P_0(t)=1 - \mathsf P\bigl(\xi_1 > t; \ \gamma > t; \ \eta_1 > \gamma \bigr) \ - $$
$$ - \ \mathsf P \bigl(\xi_1 > t; \ \gamma > t-\alpha; \ \eta_2 > \gamma + \alpha; \  \eta_1 \leqslant \gamma; \ t\geqslant \alpha \bigr) \ - $$
$$ - \ \mathsf P\bigl( \xi_1 > t; \  \eta_1 \leqslant \gamma; \ \eta_2 \leqslant \gamma+\alpha; \  t\geqslant \alpha \bigr). $$

Просто $$\mathsf P(\xi < \eta)=\int\limits_{-\infty}^\infty F_\xi(y)dF_\eta(y)$$ для независимых с.в. $\xi$ и $\eta$.

Если преобразовать, перейдя к противоположному событию, первоначальное выражение для $P_0(t)$ (в котором обозначение $MP$ - непонятно что), то получим:
$$
P_0(t)=1-\mathsf P\bigl(\gamma \cdot I_{\eta_1>\gamma; \, \eta_2 > \gamma+\alpha} > t; \ \xi_1 > t; \ \gamma+\alpha > t\bigr) \ - $$
$$ - \ \mathsf P\bigl( \gamma\cdot I_{\eta_1 > \gamma; \, \eta_2 \leqslant \gamma+\alpha} > t; \ 
\ \xi_1 > t\bigr) \ - $$
$$ - \ \mathsf P\bigl( \xi_1\cdot I_{\eta_1 \leqslant \gamma; \, \eta_2 > \gamma+\alpha} > t; \ \gamma+\alpha > t\bigr) \ - $$
$$ - \ \mathsf P\bigl( \xi_1\cdot I_{\eta_1 \leqslant \gamma; \, \eta_2 \leqslant \gamma+\alpha} > t\bigr).$$

Сумма вероятностей тут возникла оттого, что события под индикаторами попарно несовместны и образуют разбиение достоверного события, т.е. из них в эксперименте случается ронво одно. Дальше от индикаторов следует, видимо, избавиться так (беру первую вероятность):

$$
\mathsf P\bigl(\gamma \cdot I_{\eta_1>\gamma; \, \eta_2 > \gamma+\alpha} > t; \ \xi_1 > t; \ \gamma+\alpha > t\bigr) = 
\mathsf P\bigl(\gamma > t; \ \xi_1 > t; \ \gamma+\alpha > t; \ \eta_1>\gamma; \, \eta_2 > \gamma+\alpha \bigr).
$$

После чего сумму вероятностей можно, наверное, как-то упростить, уменьшив число слагаемых до требуемых трёх.

 Профиль  
                  
 
 
Сообщение12.04.2009, 17:03 


25/03/09
12
--mS--
А что обозначает $;$ в этих выражениях?

И все же. Как от выражения
$$ \mathsf P\bigl(\gamma \cdot I_{\eta_1>\gamma; \, \eta_2 > \gamma+\alpha} > t; \
\xi_1 > t; \ \gamma+\alpha > t\bigr) =  \mathsf P\bigl(\gamma > t; \ \xi_1 > t; \
\gamma+\alpha > t; \ \eta_1>\gamma; \, \eta_2 > \gamma+\alpha \bigr). $$
перейти к выражению, построенному на функциях распределения случайных величин?

 Профиль  
                  
 
 
Сообщение12.04.2009, 17:29 
Заслуженный участник
Аватара пользователя


23/11/06
4171
Kostafey писал(а):
--mS--
А что обозначает $;$ в этих выражениях?

Точка с запятой означает перечисление событий, происходящих одновременно.

Kostafey писал(а):
И все же. Как от выражения
$$ \mathsf P\bigl(\gamma \cdot I_{\eta_1>\gamma; \, \eta_2 > \gamma+\alpha} > t; \
\xi_1 > t; \ \gamma+\alpha > t\bigr) =  \mathsf P\bigl(\gamma > t; \ \xi_1 > t; \
\gamma+\alpha > t; \ \eta_1>\gamma; \, \eta_2 > \gamma+\alpha \bigr). $$
перейти к выражению, построенному на функциях распределения случайных величин?


В моём сообщении выше подобные переходы на примере трёх интегралов продемонстрированы. Если $\alpha>0$, то $\{\gamma > t\} \subseteq \{\gamma+\alpha >t\}$, поэтому данная вероятность равна
$$
\overline F_{\xi_1}(t)\cdot \int\limits_{t}^{\infty} \overline F_{\eta_1}(y) \overline F_{\eta_2}(y+\alpha) \, d F_\gamma(y).
$$

Или вопрос о механизме? Он такой, как Вы писали выше с плотностями.
$$
\mathsf P(\xi < \eta) = \int\limits_{\mathbb R} \mathsf P(\xi < y~ |~ \eta=y)\, dF_\eta(y)=\int\limits_{\mathbb R} F_\xi(y) \, dF_\eta(y).$$
Во втором равенстве использована независимость с.в. Можно по-другому:
$$
\mathsf P(\xi < \eta) =\int\limits_{\mathbb R} \mathsf P(y < \eta ~|~ \xi=y)\, dF_\xi(y)=  \int\limits_{\mathbb R} \overline F_\eta(y) \,dF_\xi(y).
$$

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 6 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group