2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


В этом разделе нельзя создавать новые темы.

Если Вы хотите задать новый вопрос, то не дописывайте его в существующую тему, а создайте новую в корневом разделе "Помогите решить/разобраться (М)".

Если Вы зададите новый вопрос в существующей теме, то в случае нарушения оформления или других правил форума Ваше сообщение и все ответы на него могут быть удалены без предупреждения.

Не ищите на этом форуме халяву, правила запрещают участникам публиковать готовые решения стандартных учебных задач. Автор вопроса обязан привести свои попытки решения и указать конкретные затруднения.

Обязательно просмотрите тему Правила данного раздела, иначе Ваша тема может быть удалена или перемещена в Карантин, а Вы так и не узнаете, почему.



Начать новую тему Ответить на тему
 
 математическая статистика (я девушка:( )
Сообщение02.01.2014, 19:18 


13/04/12
21
Условие: пусть $\hat{W_2}$ - наилучшая линейная оценка величины $W_2$ по наблюдениям $\{ W_1,W_4\}$. Во сколько раз среднеквадратичная ошибка $M(\hat{W_2}-W_2)^2$ будет меньше $DW_2$, если $W=(W_1, W_2, W_3, W_4)$ - центрированный, и ковариционная матрица:
$ \begin{bmatrix}
1 & 1 & 1 & 1\\
1 & 2 & 2 & 2 \\
1 & 2 & 3 & 3 \\
1 & 2 & 3 & 4
\end{bmatrix}           $

Что я знаю\умею:
$DW_2$ стоит на диагонали ковариационной матрицы(элемент $a_{2,2}$) и равна 2. То, что вектор центрированный дает нам то, что у него нулевое математическое ожидание.
Так же нашла в учебнике формулу для линейной оценки для случая всего двух векторов, когда один оценивается через другой: $\hat{X}=M(X | Y) = M_x + K_{x,y}K_{y}^{-1}(y-m_y)$. и тогда $M(\hat{x}-x)^2= K_{x}-K_{xy}K^{-1}_yK_{yx}$.
Уже здесь не совсем понятно откуда берется $K^{-1}_y$. Вроде как-то должен же быть связан с ковариационной матрицей..
Как эти же формулы получить для случая, если один вектор оценивается через все остальные, если их число больше двух? Как эту же формулу получить для случая, когда один вектор оценивается не через все остальные, а через некоторые из них? Нужно ли в ковариационной матрице просто вычеркнуть ненужные строчки?
По моей логике:
В матрице ковариаций оставляем только то, что касается первого, второго и четвертого вектора:
$ \begin{bmatrix}
1 & 1 & 1\\
1 & 2 & 2 \\
1 & 2  & 4
\end{bmatrix}$
Второй вектор ставим на первое место и отчеркиваем. То что отчеркнуто в левом верхнем углу - это $K_{11}$, то что правее - $K_{12}$

Далее: $W_2(W_1,W_4)=m_1+K_{1,2}K^{-1}_{22}\begin{bmatrix}
w_1 - m_1\\
w_4 - m_4 
\end{bmatrix}$.

поскольку м.о. нулевое и вектор центрированый:
$\hat{W_2}(W_1,W_4)=(1,1)\begin{bmatrix}
2 &2\\
2 &4 
\end{bmatrix}^{-1}\begin{bmatrix}
w_1\\
w_4 
\end{bmatrix} $. и дальше найти обратную, подставить посчитать. Вопрос: куда денутся тогда неизвестные $W_1,W_4$?

 Профиль  
                  
 
 Re: математическая статистика (я девушка:( )
Сообщение02.01.2014, 22:27 
Заслуженный участник
Аватара пользователя


23/11/06
4171
В общем, всё правильно до тех пор, пока до конкретных матриц дело не дошло. После того, как вычеркнули всё, что касается $W_3$, и переставили на первое место всё, что касалось $W_2$, должна была получиться матрица ковариаций вектора $(W_2,\, W_1,\,W_4)$ такая:
$$\left(\begin{array}{ccc}2 & 1 & 2 \cr 1& 1 & 1 \cr 2& 1 & 4\end{array}\right).$$
Соответственно, $K_{1,2}=(1, \,2)$, и $K_{2,2}=\begin{pmatrix}1 & 1 \\ 1 & 4\end{pmatrix}$.

А никуда не надо девать $W_1$ и $W_4$ - Ваша оценка по определению будет их линейной комбинацией. Всего-то вся возня ради отыскания коэффициентов при $W_1$ и $W_4$. Потом подставьте результат в матожидание $M(\hat W_2-W_2)^2$, вычислите его и сравните с двойкой.

Откровенно говоря, стоило бы сразу искать $\hat{W}_2$ как линейную комбинацию $W_1$ и $W_4$ с неизвестными коэффициентами, а коэффициенты находить из условия, что разность $W_2-\hat W_2$ ортогональна (в смысле, ковариация нулевая) как $W_1$, так и $W_4$.

 Профиль  
                  
 
 Re: математическая статистика (я девушка:( )
Сообщение02.01.2014, 23:24 


13/04/12
21
Ага. Тогда обратная к $ \begin{matrix} 1 & 1 \\ 1 & 4\end{matrix}$ будет
$ \frac 1 3 (\begin{matrix} 4 & -1  \\ -1 & 1 \end{matrix})$.

Умножаю:
$(1,2) (\begin{matrix} 4 & -1  \\ -1 & 1 \end{matrix}) \begin{matrix} w_1  \\ w_4 \end{matrix}$. вспоминая про $\frac 1 3 $ получаю $ \frac 2 3 w_1 + \frac 1 3 w_4$.
теперь
$M(\hat {W_2} - W)^2 = M( \frac 2 3 w_1 + \frac 1 3 w_4 - W_2)^2 $.
Что делать дальше? раскрывать этот квадрат и действовать по линейности матожидания? матожидание от произведения $w_1, w_4$ равна нулю? и от $w_2 \cdot w_1, w_2 \cdot w_4 $ тоже нулю?

 Профиль  
                  
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 01:26 
Заслуженный участник
Аватара пользователя


23/11/06
4171
А Вы не забыли, что такое ковариация? С чего бы это матожидание произведения равнялось произведению матожиданий?

 Профиль  
                  
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 14:47 


13/04/12
21
Считаю: $M(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2)^2 = (M(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2))^2+D(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2)$ первая скобка вся равна нулю, разложить по линейности, м.о. каждого вектора равна нулю, а вторая : $\frac 4 9 Dw_1 + \frac 1 9 Dw_4 + Dw_2 = \frac 4 9 \cdot 1 + \frac 1 9 \cdot 4 + 2 = 2 \frac 8 9$. ну и поделим 2 на этот ответ и счастье.
Все верно?)
всем спасибо

 Профиль  
                  
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 15:59 
Заслуженный участник


09/05/13
8904
Нифига не верно. Вам же ласково намекнули про ковариацию, а Вы туда же, дисперсию суммы как сумму дисперсий считать. Это у коррелированных случайных величин-то.

 Профиль  
                  
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 16:26 


13/04/12
21
Каюсь!
тогда пересчет:
$M(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2)^2 = (M(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2))^2+D(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2)$ первая скобка вся равна нулю, разложить по линейности, м.о. каждого вектора равна нулю.
Есть формула дисперсии линейной комбинации:
$D \sum c_i \cdot x_i = \sum c_i^2 \cdot Dx_i + 2 \sum_{1 \leqslant i<j  \leqslant n}  c_i c_j cov(x_i, x_j)$
в моем случае:
$\frac 4 9 Dw_1 + \frac 1 9 Dw_4 + Dw_2 + 2 (\cdot \frac 2 3 \cdot \frac 1 3 cov(w_1,w_4)+ \frac 2 3 \cdot (-1) cov(w_1, w_2) + \frac 1 3 \cdot (-1) cov(w_1, w_2)) = \frac 4 9 + \frac 4 9 + 2 + 2(\frac 2 9 \cdot 1  -\frac 2 3 \cdot 1 - \frac 1 3 \cdot 2) = \frac 2 3 $.


и два поделить на две третьих это три.
теперь все норм?

-- 03.01.2014, 17:27 --

всем спасибо за подсказки и ласковые намёки!)

 Профиль  
                  
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 16:31 
Заслуженный участник


09/05/13
8904
Вроде да, при беглом просмотре.

 Профиль  
                  
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 17:00 
Заслуженный участник
Аватара пользователя


23/11/06
4171

(Оффтоп)

Вот что за любовь к гигантским формулам там, где без формул счастье? Отчего просто не взять и не возвести в квадрат величину под знаком матожидания, и подставить все ковариации?

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 9 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group