2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу 1, 2, 3, 4  След.
 
 Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 01:38 
Здравствуйте! У меня проблемы с освоением теории вероятности, у меня много задач, и я хотел бы в этой теме научиться их решать самостоятельно. Где-то или я чего-то не умею/не понимаю или не берутся интегралы...

Начну,
1.
Пусть $Z=XY$, $X\simeq N(0,1)$, и $P(Y=1)=P(Y=-1)=\frac{1}{2}$.
Найти распределение пар $(X,Z)$, $(Y,Z)$ и распределение $X+Z$. Показать, что $Z\simeq N(0,1)$ и что $X$ и $Z$ - некоррелированы, но зависимы.
Что я делаю:
\begin{align*}
&F_X(x)=\int\limits_{-\infty}^{\infty}{\sqrt{\frac{1}{2\pi}}\exp{(-\frac{x^2}{2})}dx}\\
&F_Y(y)=\left\lbrace\begin{array}{c} 0,(y<-1), \\ \frac{1}{2}, (-1\leq y < 1),\\1, (1\leq y). \end{array}\right.\\
\end{align*}
-независимы:
\begin{align*}
&F_{XY}(x,y)=\left\lbrace\begin{array}{c} 0,(y<-1), \\ \frac{1}{2}\int\limits_{-\infty}^{\infty}{\sqrt{\frac{1}{2\pi}}\exp{(-\frac{x^2}{2})}dx}, (-1\leq y < 1),\\\int\limits_{-\infty}^{\infty}{\sqrt{\frac{1}{2\pi}}\exp{(-\frac{x^2}{2})}dx},(1\leq y). \end{array}\right.\\
\end{align*}
-теперь для нахождения распределения $XY$, если бы у меня был двойной интеграл, мне нужно было бы брать интеграл по пределам:
$F_{XY<C}=\int\limits_{0}^{\infty}\int\limits_{-\infty}^{C/Y}(...)dxdy + \int\limits_{-\infty}^{0}\int\limits_{C/Y}^{\infty}(...)dxdy$
Я могу еще подставить это в мою совместную функцию распределения, но не выходит стандартное нормальное... Объясните пожалуйста, что я не так делаю.

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 04:44 
Аватара пользователя
Slumber в сообщении #660008 писал(а):
\begin{align*}
&F_X(x)=\int\limits_{-\infty}^{\infty}{\sqrt{\frac{1}{2\pi}}\exp{(-\frac{x^2}{2})}dx}\\
&F_Y(y)=\left\lbrace\begin{array}{c} 0,(y<-1), \\ \frac{1}{2}, (-1\leq y < 1),\\1, (1\leq y). \end{array}\right.\\
\end{align*}

Чему равен (не чему Вы хотите, чтобы был равен, а чему на самом деле равен) интеграл $\int\limits_{-\infty}^{\infty} \dfrac1{\sqrt{2\pi}}\, e^{-x^2/2}dx$? См. свойства плотности. Может ли это быть функцией распределения?

Вторую функцию скорее всего тоже следует исправить. Вычислите $F_Y(-1)$ по определению и сравните со значением функции выше.

Двойной интеграл от чего Вы будете брать? Вторая величина имеет дискретное распределение!

Напишите определение функции распределения величины $XY$ и используйте формулу полной вероятности для её вычисления.

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 13:46 
Цитата:
Чему равен (не чему Вы хотите, чтобы был равен, а чему на самом деле равен) интеграл $\int\limits_{-\infty}^{\infty} \dfrac1{\sqrt{2\pi}}\, e^{-x^2/2}dx$? См. свойства плотности. Может ли это быть функцией распределения?

Ой, прошу прощения, это опечатка раскопировалась.
Конечно же $\int\limits_{-\infty}^{x} \dfrac1{\sqrt{2\pi}}\, e^{-x^2/2}dx$

Цитата:
Вторую функцию скорее всего тоже следует исправить. Вычислите $F_Y(-1)$ по определению и сравните со значением функции выше.

Да, здесь уже ошибся, спасибо. Функция распределения - это вероятность того, что с.в. строго меньше некоторого числа:
$F_Y(y)=\left\lbrace\begin{array}{c} 0,(y \leq  -1), \\ \frac{1}{2}, (-1< y \leq 1),\\1, (1< y). \end{array}\right.$
Соответственно совместная ф.р. будет
\begin{align*}
&F_{XY}(x,y)=\left\lbrace\begin{array}{c} 0,(y\leq-1), \\ \frac{1}{2}\int\limits_{-\infty}^{x} \dfrac1{\sqrt{2\pi}}\, e^{-x^2/2}dx, (-1< y \leq 1),\\\int\limits_{-\infty}^{x} \dfrac1{\sqrt{2\pi}}\, e^{-x^2/2}dx,(1< y). \end{array}\right.\\
\end{align*}

Пробую применить формулу полной вероятности. Ищу полную группу событий:
$H_1=P(Y=-1), H_2=P(Y=1); H_1\cap H_2 = \varnothing; P(H_1)=P(H_2)=\frac{1}{2}$
Сразу возникает желание написать
$\frac{1}{2} \cdot \int\limits_{-\infty}^{x} \dfrac1{\sqrt{2\pi}}\, e^{-x^2/2}dx + \frac{1}{2} \cdot \int\limits_{-\infty}^{x} \dfrac1{\sqrt{2\pi}}\, e^{-x^2/2}dx $,
Но я пробую по определению
$P(XY<C) = P(XY<C|Y=-1)P(H_1)+P(XY<C|Y=1)P(H_2)= \frac{1}{2} \cdot P(X>-C) + \frac{1}{2} \cdot P(X<C)$
И можно сказать, что это будет $\simeq N(0,1)$, потому что нормальное распределение симметрично и в моем случае величина X центрирована?

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 14:18 
Slumber в сообщении #660158 писал(а):
И можно сказать, что это будет $\simeq N(0,1)$, потому что нормальное распределение симметрично и в моем случае величина X центрирована?

Можно и даже нужно, только упоминание про центрированность -- совершенно лишнее.

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 14:51 
Хорошо, тогда теперь я ищу распределение пары и пытаюсь доказать некоррелируемость.
Если бы у меня был интеграл, я бы нашел область, где $P(X<C_1,XY<C_2)$. Здесь мне нужно, я так понимаю, искать
$P(X<C_1,Z<C_2)=\frac{1}{2}\cdot P(X<C_1,X<C_2)+\frac{1}{2} \cdot P(X<C_1,X>-C_2)$.
И как мне это представить?
$P(X,Z) = \frac{1}{2}\cdot \int\limits_{-\infty}^{\min{C_1,C_2}}(...)dx +  \frac{1}{2}\cdot \int\limits_{-C_2}^{C_1}(...\cdot \mathbb {I}_{(-C_2<C_1)})dx \neq P(X)P(Z).$

Но для некоррелируемости мне нужно $E(XZ)-E(X)E(Z)=0$

Цитата:
только упоминание про центрированность -- совершенно лишнее.

Но если бы "колокол" был сдвинут относительно нуля, ничего бы не вышло?

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 18:38 
Аватара пользователя
Slumber в сообщении #660198 писал(а):
И как мне это представить?
$P(X,Z) = \frac{1}{2}\cdot \int\limits_{-\infty}^{\min{C_1,C_2}}(...)dx +  \frac{1}{2}\cdot \int\limits_{-C_2}^{C_1}(...\cdot \mathbb {I}_{(-C_2<C_1)})dx \neq P(X)P(Z).$


Зачем Вы таскаете эти интегралы всюду? Функция распределения стандартного нормального закона - это замечательная функция $\Phi(x)=\mathsf P(X<x)$, центрально-симметричная $\Phi(-x)=1-\Phi(x)$, работайте в её терминах. Можно компактно записать ответ (вот только зачем такие устрашающие обозначения для переменных...):
$$F_{X, XY}(C_1, C_2) = \frac12\Phi(\min(C_1, C_2))+\frac12 I_{(-C_2<C_1)}(\Phi(C_1)-\Phi(-C_2)).$$

Slumber в сообщении #660198 писал(а):
Но для некоррелируемости мне нужно $E(XZ)-E(X)E(Z)=0$


А что, матожидания $X$, $XY$ и $X^2Y$ не считаются?
Slumber в сообщении #660198 писал(а):
Но если бы "колокол" был сдвинут относительно нуля, ничего бы не вышло?

Конечно. Симметричность $\Phi(x)$ необходима.

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 18:50 
Цитата:
А что, матожидания $X$, $XY$ и $X^2Y$ не считаются?


Ой, $C_1,C_2 \rightarrow \infty$ и тогда $-C_2<C_1$ превратится в $-\infty<\infty$, то есть выйдет две половинки матожидания нормального распределения.
Просто был сбит с толку видом этой функции(.

-- 18.12.2012, 18:25 --

Ну что же, вроде бы с той разобрались. Cпрошу следующую по теме:

2.
Для стандартного нормального вектора $(\zeta_{11} \zeta_{12} \zeta_{21} \zeta_{22}) \simeq N_4$ найти распределение определителя $\det(\zeta_{ij},i,j=1,2)$.
-----
Что я делаю: Пусть они для краткости $x,y,z,t$. Отображение $xt-zy$ - вырожденное, я не могу воспользоваться якобианом...

Я могу посчитать, скажем, $xy$ (просто получение формулы) через полярные координаты:
$\varphi^{-1}:\left\lbrace\begin{array}{c} x = \rho\cos{\theta} \\ y = \rho\sin{\theta} \end{array}\right.$
$|J_{\varphi^{-1}}|=\rho$
$p(x,y)=\frac{1}{\sqrt{2\pi}}\exp{(-\frac{(x^2+y^2)}{2})}$
$p(\rho,\theta)=\rho \frac{1}{\sqrt{2\pi}}\exp{(-\frac{\rho^2}{2})}$
Итак, $xy<c$ превращается в $\frac{\rho^2}{2}\sin{2\theta}<c$

Я интегрирую по $|\rho|<\sqrt{\frac{2C}{\sin{2\theta}}}$.
$F(C_1,C_2) = \int\limits_{0}^{2\pi}\int\limits_{-\sqrt{}}^{\sqrt{}}\exp{(-\frac{\rho^2}{2})}d\rho d\theta$.
Проинтегрировать по $\theta$ уже дальше невозможно, да и это бы ничего не дало, ведь мне нужно распределение разницы двух таких величин.

Более того, если распределение самого вектора $\frac{1}{\sqrt{2\pi}}\exp{(-\frac{(t^2)}{2})}$, тогда я вообще не знаю, что делать.

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 21:50 
Аватара пользователя
Slumber в сообщении #660283 писал(а):
Цитата:
А что, матожидания $X$, $XY$ и $X^2Y$ не считаются?


Ой, $C_1,C_2 \rightarrow \infty$ и тогда $-C_2<C_1$ превратится в $-\infty<\infty$, то есть выйдет две половинки матожидания нормального распределения.
Просто был сбит с толку видом этой функции(.


При чём тут вообще эта функция? Чтобы считать указанные матожидания, ничего, кроме свойств матожидания, знать не надо, и никаких совместных распределений в т.ч.!

По второй вот тут посмотрите: http://dxdy.ru/post278992.html#p278992

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 21:56 
Цитата:
При чём тут вообще эта функция?

Ну, как бы мы взяли производную и нашли плотность распределения, а затем посчитали матожидание как $\int\limits_{-\infty}^{\infty} xp(x) dx$. От взятия производной будет почти что две половинки плотности нормального распределения. Или я поспешил? Как еще можно?

Во втором случае у меня сказано про "нормальный стандартный вектор" - это надо понимать как то, что все его координаты имеют норм. станд. распределение?

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 22:07 
Аватара пользователя
$\mathsf EX = ?$
$\mathsf E(XY) = ?$ Какие свойства математического ожидания Вам известны, подходящие для вычисления этого матожидания?
$\mathsf E(X^2Y) = ?$ Какие свойства математического ожидания Вам известны, подходящие для вычисления этого матожидания?

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 22:13 
$E(XY) = E(X)E(Y)$ для независимых.
$E(XZ)$ - ? Нужно показать, что они некоррелированы(т.е. $E(XZ)=E(X)E(Z)$), но зависимы.

$E(X)=0.$
Значит, $E(XY)=0.$
Я так понимаю, вы имеете ввиду, что
$E(X^2Y)=E(X^2)E(Y)$.

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 22:23 
Аватара пользователя
Разумеется, именно это я и имею в виду. $XZ\equiv X^2 Y$.

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 22:31 
Вроде бы выходит тоже ноль для $E(X^2)$.

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 22:33 
Аватара пользователя
:facepalm: Второй момент может быть нулём только в каком случае?

 
 
 
 Re: Задачи по теории вероятности - совместные распределения ++
Сообщение18.12.2012, 22:43 
Из дисперсии = 1 выходит тогда единица, если первый момент нулевой. Я считал из распределения, может ошибся. Вы уж извините, нам за два с половиной месяца весь курс начитали.
Тогда мне нужно, чтобы $E(Y)=0$, а это уже вроде бы так: $(-1)\cdot\frac{1}{2}+1\cdot\frac{1}{2}=0.$

-- 18.12.2012, 22:14 --

И вопрос по второй задаче:
Значит, у меня, допустим, $xt = \xi$, $zy=\eta$, $f_{\xi}(z_1) = K_1(z_1)$, $f_{\eta}(z_2)= K_2(z_2)$ - независимы.
Значит, я просто их перемножаю и нахожу совместную плотность $f(z_1,z_2)$, а затем ищу распределение $\xi - \eta$ как
$F(z_1-z_2<u)=\int\limits_{z_1-z_2<u}K_1(z_1)K_2(z_2)$.
Но $z_i$ там лишь параметры:
$f(z)= \frac {1}{\pi}\int\limits_{1}^{+\infty} e^{-zt} (t^2-1)^{-1/2}dt$
$F(z) = - \frac{1}{\pi} \int\limits_0^{\pi/2} \left( e^{-z/\sin \varphi } -1\right)\,d\varphi$.

 
 
 [ Сообщений: 46 ]  На страницу 1, 2, 3, 4  След.


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group