2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


В этом разделе нельзя создавать новые темы.

Если Вы хотите задать новый вопрос, то не дописывайте его в существующую тему, а создайте новую в корневом разделе "Помогите решить/разобраться (М)".

Если Вы зададите новый вопрос в существующей теме, то в случае нарушения оформления или других правил форума Ваше сообщение и все ответы на него могут быть удалены без предупреждения.

Не ищите на этом форуме халяву, правила запрещают участникам публиковать готовые решения стандартных учебных задач. Автор вопроса обязан привести свои попытки решения и указать конкретные затруднения.

Обязательно просмотрите тему Правила данного раздела, иначе Ваша тема может быть удалена или перемещена в Карантин, а Вы так и не узнаете, почему.



Начать новую тему Ответить на тему
 
 распределение разностей порядковых статистик экспоненц. расп
Сообщение03.03.2007, 13:35 


19/07/05
243
Привет, вопрос такой: пусть $X_N^{(1)}<...<X_N^{(N)}$ - вариационный ряд выборки, соответствующей экспоненциальному распределению с плотностью $e^{-x}$. В книжке написано, что плотность распределения статистики $X_N^{(i+1)}-X_N^{(i)}$ есть $(N-i)e^{-x(N-i)}$. Никак не получается вывести эту самую плотность. Думал сначала сделать так: при известном $X_N^{(i)}=y$ условное распределение $X_N^{i+1}-y$ известно. Далее от него находим мат.ожидание по у и получаем распределение статистики. Но если это расписать, то получаются страшные интегралы. Вобщем, буду рад советам :wink:

 Профиль  
                  
 
 
Сообщение03.03.2007, 18:26 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
Во-первых, интегралы должны легко браться. Как мы можем найти распределение $k$-й порядковой статистики? Обозначим плотность распределения через $p(t)$, функцию распределения через $F(t)$. Тогда плотность $k$-й порядковой статистики устно вычисляется как
$$
p_k(t)=C_N^k\cdot k\cdot (F(t))^{k-1}\cdot p(t)\cdot(1-F(t))^{N-k}.
$$
Здесь $C_N^k\cdot k$ означает число способов среди $N$ наблюдений выбрать одно, которое попадет "в точку" $t$ и среди оставшихся $(k-1)$, которые будут левее. Далее, $(F(t))^{k-1}$ есть вероятность для этих $k-1$ наблюдений попасть левее точки $t$. Величина $(1-F(t))^{N-k}$ есть вероятность для оставшихся $N-k$ наблюдений попасть правее точки $t$. Ну и, наконец, $p(t)$ есть "вероятность выделенного одного наблюдения попасть в точку $t$".

На самом деле более строго рассуждая, нужно найти вероятность попадания в некоторую малую окрестность точки $t$, выделить член, пропорциональный длине этой окрестности, и коэффициент при нем как раз и будет плотностью. В общем, это все без особых трудов пишется аккуратно.

В данном случае из тех же соображений легко написать совместную плотность статистик $k$ и $k+1$. В точке $(x,y)$ она будет равна (с точностью до постоянного множителя, дающего способы выбора)
$$
p(x,y)\sim (1-e^{-x})^{k-1}e^{-x}e^{-y}(e^{-y})^{N-k-1}.
$$
Далее заменяем $y=x+t$ и интегрируем по области
$$
\int_0^\infty\,dx\int_0^u\,dt\,\, p(x,x+t)
$$
Это будет ровно вероятность того, что разница между статистиками не превысит $u$, т.е. функция распределения. Интегралы разбиваются в произведение. Второй явно берется. А первый есть константа, которую можно не считать, так как она ищется из условия нормировки.


Второй способ проще, но он немного "на пальцах", хотя не очень сложно и аккуратно все обосновать через условные распределения. Он основан на свойстве отсутствия последействия для экспоненциального закона. Если переменная распределена экспоненциально на $(0,\infty)$ и известно, что она приняла значение больше $t$, то при этом условии ее условное распределение также экспоненциальное на $(t,\infty)$.

Таким образом, мы знаем, что $N-k$ наблюдений попали правее $k$-й порядковой статистики. При условии, что $X_N^{(k)}=t$, они распределены экспоненциально на отрезке $(t,\infty)$. Вероятность, что разница $X_N^{(k+1)}-X_N^{(k)}$ будет больше $u$, есть вероятность того, что ни одно из этих наблюдений не попадет в интервал длины $u$. Эта вероятность равна $(e^{-u})^{N-k}=e^{-(N-k)u}$. Таким образом, функция распределения искомой разности равна $F(u)=1-e^{-(N-k)u}$, и плотность получается именно такой, как нужно.

 Профиль  
                  
 
 
Сообщение04.03.2007, 14:12 


19/07/05
243
Здравствуйте, PAV, что-то у меня не получается с той эвристической плотностью, которую вы написали: $p(x,y)=k(N-k)(1-e^{-x})^{k-1}e^{-x}e^{-y}(e^{-y})^{N-k-1}$, где множитель k(N-k) из условия нормировки, далее $$\int_0^\infty\,dx\int_0^u\,dt\,\, p(x,x+t)=k(1-e^{-u(N-k)})\int_0^\infty (1-e^{-x})^{k-1}(e^{-x})^{N-k+1}dx=\frac{k!}{(N-k+1)...N}(1-e^{u(N-k)})$$

Update: да где-то я все-таки наврал с вычислениями интегралов, так как из условия нормировки должно быть: $k\int_0^\infty (1-e^{-x})^{k-1}(e^{-x})^{N-k+1}dx=1$ . PAV, спасибо за то, что показали способ рассуждения, как находить плотности, а то я например плотность порядковой статистики знал только как формально получить :)

PAV, еще подскажите, пожалуйста, а то я совсем запутался: пусть есть тот же вариационный ряд и хочу найти распределение $X_N^{(2)}-X_N^{(1)}$ используя условное распределение: тогда $P\{X_N^{(2)}-X_N^{(1)}<z | X_N^{(1)}=y\}=1-e^{(y+z)(N-1)}$ А потом $P\{X_N^{(2)}-X_N^{(1)}<z\}=E\{1-e^{(y+z)(N-1)}\}=\int_0^\infty(1-e^{(y+z)(N-1)})Ne^{-Ny}dy$ но почему-то это неправильно.

Update: пересчитал нормировочный коэффициент для плотности - он равен $\frac{(N-k)...N}{(k-1)!}$ -а не $k(N-k)$, так что все нормально считается и $$\int_0^\infty\,dx\int_0^u\,dt\,\, p(x,x+t)=\frac{(N-k)...N}{(k-1)!}\frac{1}{N-k}(1-e^{-u(N-k)})\int_0^\infty (1-e^{-x})^{k-1}(e^{-x})^{N-k+1}dx=1-e^{u(N-k)}$$

 Профиль  
                  
 
 ответу на все практически воспросы следует искать у Феллера
Сообщение04.03.2007, 14:30 


01/06/06
107
См. Феллер, Введение в теорию вероятностей и её приложения, Т.2, Гл. 1, 6: Времена ожидания и порядковые статистики. Особенно пункт 3, использование строго марковского свойства. Кратко, показательное распределение обладает отсутствием памяти. Если получено значение $i$-й порядковой статистики, то расстояния до следующих статистик независимы и показательно распределены с тем же параметром (в вашем случае параметр равен 1). Поэтому минимум из этих расстояний распределен показательнос параметром $(N-i)$.

 Профиль  
                  
 
 Re: ответу на все практически воспросы следует искать у Фелл
Сообщение04.03.2007, 15:13 


19/07/05
243
Горьковчанин писал(а):
См. Феллер, Введение в теорию вероятностей и её приложения, Т.2, Гл. 1, 6: Времена ожидания и порядковые статистики. Особенно пункт 3, использование строго марковского свойства. Кратко, показательное распределение обладает отсутствием памяти. Если получено значение $i$-й порядковой статистики, то расстояния до следующих статистик независимы и показательно распределены с тем же параметром (в вашем случае параметр равен 1). Поэтому минимум из этих расстояний распределен показательнос параметром $(N-i)$.

Спасибо за ссылку, почитаю, хотя это все то же, что PAV написал. Просто хотелось самому вывести этот факт. Но не получилось :cry:

 Профиль  
                  
 
 
Сообщение05.03.2007, 23:34 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
С нормировкой я имел в виду немного другое. Если решить считать все множители честно, то множитель при совместной плотности $p(x,y)$ равен числу способов, которым можно разделить $N$ имеющихся позиций на 4 множества: два по одному элементу (соответствуют $k$-й и $(k+1)$-й порядковой статистикам), далее множество из $(k-1)$ величин - первых порядковых статистик и оставшееся множество из $N-(k+1)$ последних порядковых статистик. Эта константа равна $C_N^k\cdot k\cdot(N-k)$. Это должно быть то же самое, что у Вас.

Но можно вообще забить на все константные множители - и те, которые входят в $p(x,y)$, и в функцию распределения, которую мы ищем. Тогда мы в итоге получим, что интересующая нас функция распределения будет равна $F(u)=C(1-e^{-u(N-k)})$. Но так как при $u\to\infty$ должны получить 1, то отсюда $C=1$ и можно не считать никаких интегралов вообще.

Добавлено спустя 3 минуты 51 секунду:

Zo писал(а):
пусть есть тот же вариационный ряд и хочу найти распределение $X_N^{(2)}-X_N^{(1)}$ используя условное распределение: тогда $P\{X_N^{(2)}-X_N^{(1)}<z | X_N^{(1)}=y\}=1-e^{(y+z)(N-1)}$


Здесь ошибка. Разность $X_N^{(2)}-X_N^{(1)$ сама будет распределена по показательному закону и не зависит от $y$, в этом и состоит свойство отсутствия последействия. Должно быть $P\{X_N^{(2)}-X_N^{(1)}<z | X_N^{(1)}=y\}=1-e^{-z(N-1)}$

Добавлено спустя 16 минут 3 секунды:

А вообще, я подумал, что можно рассуждать так. Мы имеем вектор $(X_1,\ldots,X_N)$, компоненты которого независимы и распределены по показательному закону. Сделаем сдвиг на величину $X^{(1)}=\min X_i$, т.е. вычтем $X^{(1)}$ из всех компонент вектора. Одна из них (минимальная) станет равной нулю, ее удалим. Останется вектор длины $N-1$. Покажем, что его компоненты также независимы и распределены по тому же показательному закону. Далее этот прием можно повторять, удаляя одну компоненту за другой.

Для простоты рассмотрим случай $N=3$. Обозначим $(Y_1,Y_2)$ - вектор, который получится после нашего преобразования. Мы будем честно искать его функцию распределения, которая равна $F(y_1,y_2)=P\{Y_1<y_1,Y_2<y_2\}$. Обозначим это событие через $A$.

Рассмотрим разбиение всего вероятностного пространства на три события $H_1$, $H_2$ и $H_3$, где $H_k$ заключается в том, что $X^{(1)}=X_k$. Естественно воспользоваться формулой полной вероятности и написать
$$
P\{A\}=\sum_{k=1}^3 P\{A\cap H_k\}
$$
Нетрудно понять (из симметрии), что все слагаемые в сумме будут одинаковы. Найдем первое. У нас есть совместная плотность нашего исходного вектора $X$: $p(x_1,x_2,x_3)=e^{-(x_1+x_2+x_3)}$. Вероятность нашего события $P\{A\cap H_1\}$ пишется как интеграл по следующей области:
$$
P\{A\cap H_1\}=\int_0^\infty\,dx_1\int_{x_1}^{x_1+y_1}\,dx_2\int_{x_1}^{x_1+y_2}\,p(x_1,x_2,x_3)\,dx_3.
$$
Интегралы должны элементарно браться. И все получится.

 Профиль  
                  
 
 
Сообщение07.03.2007, 11:17 


19/07/05
243
PAV писал(а):
А вообще, я подумал, что можно рассуждать так. Мы имеем вектор $(X_1,\ldots,X_N)$, компоненты которого независимы и распределены по показательному закону. Сделаем сдвиг на величину $X^{(1)}=\min X_i$, т.е. вычтем $X^{(1)}$ из всех компонент вектора. Одна из них (минимальная) станет равной нулю, ее удалим. Останется вектор длины $N-1$. Покажем, что его компоненты также независимы и распределены по тому же показательному закону. Далее этот прием можно повторять, удаляя одну компоненту за другой.

Для простоты рассмотрим случай $N=3$. Обозначим $(Y_1,Y_2)$ - вектор, который получится после нашего преобразования. Мы будем честно искать его функцию распределения, которая равна $F(y_1,y_2)=P\{Y_1<y_1,Y_2<y_2\}$. Обозначим это событие через $A$.

Рассмотрим разбиение всего вероятностного пространства на три события $H_1$, $H_2$ и $H_3$, где $H_k$ заключается в том, что $X^{(1)}=X_k$. Естественно воспользоваться формулой полной вероятности и написать
$$ P\{A\}=\sum_{k=1}^3 P\{A\cap H_k\} $$
Нетрудно понять (из симметрии), что все слагаемые в сумме будут одинаковы. Найдем первое. У нас есть совместная плотность нашего исходного вектора $X$: $p(x_1,x_2,x_3)=e^{-(x_1+x_2+x_3)}$. Вероятность нашего события $P\{A\cap H_1\}$ пишется как интеграл по следующей области:
$$ P\{A\cap H_1\}=\int_0^\infty\,dx_1\int_{x_1}^{x_1+y_1}\,dx_2\int_{x_1}^{x_1+y_2}\,p(x_1,x_2,x_3)\,dx_3. $$
Интегралы должны элементарно браться. И все получится.


Спасибо PAV :wink:

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 7 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group