2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 распределение разностей порядковых статистик экспоненц. расп
Сообщение03.03.2007, 13:35 
Привет, вопрос такой: пусть $X_N^{(1)}<...<X_N^{(N)}$ - вариационный ряд выборки, соответствующей экспоненциальному распределению с плотностью $e^{-x}$. В книжке написано, что плотность распределения статистики $X_N^{(i+1)}-X_N^{(i)}$ есть $(N-i)e^{-x(N-i)}$. Никак не получается вывести эту самую плотность. Думал сначала сделать так: при известном $X_N^{(i)}=y$ условное распределение $X_N^{i+1}-y$ известно. Далее от него находим мат.ожидание по у и получаем распределение статистики. Но если это расписать, то получаются страшные интегралы. Вобщем, буду рад советам :wink:

 
 
 
 
Сообщение03.03.2007, 18:26 
Аватара пользователя
Во-первых, интегралы должны легко браться. Как мы можем найти распределение $k$-й порядковой статистики? Обозначим плотность распределения через $p(t)$, функцию распределения через $F(t)$. Тогда плотность $k$-й порядковой статистики устно вычисляется как
$$
p_k(t)=C_N^k\cdot k\cdot (F(t))^{k-1}\cdot p(t)\cdot(1-F(t))^{N-k}.
$$
Здесь $C_N^k\cdot k$ означает число способов среди $N$ наблюдений выбрать одно, которое попадет "в точку" $t$ и среди оставшихся $(k-1)$, которые будут левее. Далее, $(F(t))^{k-1}$ есть вероятность для этих $k-1$ наблюдений попасть левее точки $t$. Величина $(1-F(t))^{N-k}$ есть вероятность для оставшихся $N-k$ наблюдений попасть правее точки $t$. Ну и, наконец, $p(t)$ есть "вероятность выделенного одного наблюдения попасть в точку $t$".

На самом деле более строго рассуждая, нужно найти вероятность попадания в некоторую малую окрестность точки $t$, выделить член, пропорциональный длине этой окрестности, и коэффициент при нем как раз и будет плотностью. В общем, это все без особых трудов пишется аккуратно.

В данном случае из тех же соображений легко написать совместную плотность статистик $k$ и $k+1$. В точке $(x,y)$ она будет равна (с точностью до постоянного множителя, дающего способы выбора)
$$
p(x,y)\sim (1-e^{-x})^{k-1}e^{-x}e^{-y}(e^{-y})^{N-k-1}.
$$
Далее заменяем $y=x+t$ и интегрируем по области
$$
\int_0^\infty\,dx\int_0^u\,dt\,\, p(x,x+t)
$$
Это будет ровно вероятность того, что разница между статистиками не превысит $u$, т.е. функция распределения. Интегралы разбиваются в произведение. Второй явно берется. А первый есть константа, которую можно не считать, так как она ищется из условия нормировки.


Второй способ проще, но он немного "на пальцах", хотя не очень сложно и аккуратно все обосновать через условные распределения. Он основан на свойстве отсутствия последействия для экспоненциального закона. Если переменная распределена экспоненциально на $(0,\infty)$ и известно, что она приняла значение больше $t$, то при этом условии ее условное распределение также экспоненциальное на $(t,\infty)$.

Таким образом, мы знаем, что $N-k$ наблюдений попали правее $k$-й порядковой статистики. При условии, что $X_N^{(k)}=t$, они распределены экспоненциально на отрезке $(t,\infty)$. Вероятность, что разница $X_N^{(k+1)}-X_N^{(k)}$ будет больше $u$, есть вероятность того, что ни одно из этих наблюдений не попадет в интервал длины $u$. Эта вероятность равна $(e^{-u})^{N-k}=e^{-(N-k)u}$. Таким образом, функция распределения искомой разности равна $F(u)=1-e^{-(N-k)u}$, и плотность получается именно такой, как нужно.

 
 
 
 
Сообщение04.03.2007, 14:12 
Здравствуйте, PAV, что-то у меня не получается с той эвристической плотностью, которую вы написали: $p(x,y)=k(N-k)(1-e^{-x})^{k-1}e^{-x}e^{-y}(e^{-y})^{N-k-1}$, где множитель k(N-k) из условия нормировки, далее $$\int_0^\infty\,dx\int_0^u\,dt\,\, p(x,x+t)=k(1-e^{-u(N-k)})\int_0^\infty (1-e^{-x})^{k-1}(e^{-x})^{N-k+1}dx=\frac{k!}{(N-k+1)...N}(1-e^{u(N-k)})$$

Update: да где-то я все-таки наврал с вычислениями интегралов, так как из условия нормировки должно быть: $k\int_0^\infty (1-e^{-x})^{k-1}(e^{-x})^{N-k+1}dx=1$ . PAV, спасибо за то, что показали способ рассуждения, как находить плотности, а то я например плотность порядковой статистики знал только как формально получить :)

PAV, еще подскажите, пожалуйста, а то я совсем запутался: пусть есть тот же вариационный ряд и хочу найти распределение $X_N^{(2)}-X_N^{(1)}$ используя условное распределение: тогда $P\{X_N^{(2)}-X_N^{(1)}<z | X_N^{(1)}=y\}=1-e^{(y+z)(N-1)}$ А потом $P\{X_N^{(2)}-X_N^{(1)}<z\}=E\{1-e^{(y+z)(N-1)}\}=\int_0^\infty(1-e^{(y+z)(N-1)})Ne^{-Ny}dy$ но почему-то это неправильно.

Update: пересчитал нормировочный коэффициент для плотности - он равен $\frac{(N-k)...N}{(k-1)!}$ -а не $k(N-k)$, так что все нормально считается и $$\int_0^\infty\,dx\int_0^u\,dt\,\, p(x,x+t)=\frac{(N-k)...N}{(k-1)!}\frac{1}{N-k}(1-e^{-u(N-k)})\int_0^\infty (1-e^{-x})^{k-1}(e^{-x})^{N-k+1}dx=1-e^{u(N-k)}$$

 
 
 
 ответу на все практически воспросы следует искать у Феллера
Сообщение04.03.2007, 14:30 
См. Феллер, Введение в теорию вероятностей и её приложения, Т.2, Гл. 1, 6: Времена ожидания и порядковые статистики. Особенно пункт 3, использование строго марковского свойства. Кратко, показательное распределение обладает отсутствием памяти. Если получено значение $i$-й порядковой статистики, то расстояния до следующих статистик независимы и показательно распределены с тем же параметром (в вашем случае параметр равен 1). Поэтому минимум из этих расстояний распределен показательнос параметром $(N-i)$.

 
 
 
 Re: ответу на все практически воспросы следует искать у Фелл
Сообщение04.03.2007, 15:13 
Горьковчанин писал(а):
См. Феллер, Введение в теорию вероятностей и её приложения, Т.2, Гл. 1, 6: Времена ожидания и порядковые статистики. Особенно пункт 3, использование строго марковского свойства. Кратко, показательное распределение обладает отсутствием памяти. Если получено значение $i$-й порядковой статистики, то расстояния до следующих статистик независимы и показательно распределены с тем же параметром (в вашем случае параметр равен 1). Поэтому минимум из этих расстояний распределен показательнос параметром $(N-i)$.

Спасибо за ссылку, почитаю, хотя это все то же, что PAV написал. Просто хотелось самому вывести этот факт. Но не получилось :cry:

 
 
 
 
Сообщение05.03.2007, 23:34 
Аватара пользователя
С нормировкой я имел в виду немного другое. Если решить считать все множители честно, то множитель при совместной плотности $p(x,y)$ равен числу способов, которым можно разделить $N$ имеющихся позиций на 4 множества: два по одному элементу (соответствуют $k$-й и $(k+1)$-й порядковой статистикам), далее множество из $(k-1)$ величин - первых порядковых статистик и оставшееся множество из $N-(k+1)$ последних порядковых статистик. Эта константа равна $C_N^k\cdot k\cdot(N-k)$. Это должно быть то же самое, что у Вас.

Но можно вообще забить на все константные множители - и те, которые входят в $p(x,y)$, и в функцию распределения, которую мы ищем. Тогда мы в итоге получим, что интересующая нас функция распределения будет равна $F(u)=C(1-e^{-u(N-k)})$. Но так как при $u\to\infty$ должны получить 1, то отсюда $C=1$ и можно не считать никаких интегралов вообще.

Добавлено спустя 3 минуты 51 секунду:

Zo писал(а):
пусть есть тот же вариационный ряд и хочу найти распределение $X_N^{(2)}-X_N^{(1)}$ используя условное распределение: тогда $P\{X_N^{(2)}-X_N^{(1)}<z | X_N^{(1)}=y\}=1-e^{(y+z)(N-1)}$


Здесь ошибка. Разность $X_N^{(2)}-X_N^{(1)$ сама будет распределена по показательному закону и не зависит от $y$, в этом и состоит свойство отсутствия последействия. Должно быть $P\{X_N^{(2)}-X_N^{(1)}<z | X_N^{(1)}=y\}=1-e^{-z(N-1)}$

Добавлено спустя 16 минут 3 секунды:

А вообще, я подумал, что можно рассуждать так. Мы имеем вектор $(X_1,\ldots,X_N)$, компоненты которого независимы и распределены по показательному закону. Сделаем сдвиг на величину $X^{(1)}=\min X_i$, т.е. вычтем $X^{(1)}$ из всех компонент вектора. Одна из них (минимальная) станет равной нулю, ее удалим. Останется вектор длины $N-1$. Покажем, что его компоненты также независимы и распределены по тому же показательному закону. Далее этот прием можно повторять, удаляя одну компоненту за другой.

Для простоты рассмотрим случай $N=3$. Обозначим $(Y_1,Y_2)$ - вектор, который получится после нашего преобразования. Мы будем честно искать его функцию распределения, которая равна $F(y_1,y_2)=P\{Y_1<y_1,Y_2<y_2\}$. Обозначим это событие через $A$.

Рассмотрим разбиение всего вероятностного пространства на три события $H_1$, $H_2$ и $H_3$, где $H_k$ заключается в том, что $X^{(1)}=X_k$. Естественно воспользоваться формулой полной вероятности и написать
$$
P\{A\}=\sum_{k=1}^3 P\{A\cap H_k\}
$$
Нетрудно понять (из симметрии), что все слагаемые в сумме будут одинаковы. Найдем первое. У нас есть совместная плотность нашего исходного вектора $X$: $p(x_1,x_2,x_3)=e^{-(x_1+x_2+x_3)}$. Вероятность нашего события $P\{A\cap H_1\}$ пишется как интеграл по следующей области:
$$
P\{A\cap H_1\}=\int_0^\infty\,dx_1\int_{x_1}^{x_1+y_1}\,dx_2\int_{x_1}^{x_1+y_2}\,p(x_1,x_2,x_3)\,dx_3.
$$
Интегралы должны элементарно браться. И все получится.

 
 
 
 
Сообщение07.03.2007, 11:17 
PAV писал(а):
А вообще, я подумал, что можно рассуждать так. Мы имеем вектор $(X_1,\ldots,X_N)$, компоненты которого независимы и распределены по показательному закону. Сделаем сдвиг на величину $X^{(1)}=\min X_i$, т.е. вычтем $X^{(1)}$ из всех компонент вектора. Одна из них (минимальная) станет равной нулю, ее удалим. Останется вектор длины $N-1$. Покажем, что его компоненты также независимы и распределены по тому же показательному закону. Далее этот прием можно повторять, удаляя одну компоненту за другой.

Для простоты рассмотрим случай $N=3$. Обозначим $(Y_1,Y_2)$ - вектор, который получится после нашего преобразования. Мы будем честно искать его функцию распределения, которая равна $F(y_1,y_2)=P\{Y_1<y_1,Y_2<y_2\}$. Обозначим это событие через $A$.

Рассмотрим разбиение всего вероятностного пространства на три события $H_1$, $H_2$ и $H_3$, где $H_k$ заключается в том, что $X^{(1)}=X_k$. Естественно воспользоваться формулой полной вероятности и написать
$$ P\{A\}=\sum_{k=1}^3 P\{A\cap H_k\} $$
Нетрудно понять (из симметрии), что все слагаемые в сумме будут одинаковы. Найдем первое. У нас есть совместная плотность нашего исходного вектора $X$: $p(x_1,x_2,x_3)=e^{-(x_1+x_2+x_3)}$. Вероятность нашего события $P\{A\cap H_1\}$ пишется как интеграл по следующей области:
$$ P\{A\cap H_1\}=\int_0^\infty\,dx_1\int_{x_1}^{x_1+y_1}\,dx_2\int_{x_1}^{x_1+y_2}\,p(x_1,x_2,x_3)\,dx_3. $$
Интегралы должны элементарно браться. И все получится.


Спасибо PAV :wink:

 
 
 [ Сообщений: 7 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group