2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 математическая статистика (я девушка:( )
Сообщение02.01.2014, 19:18 
Условие: пусть $\hat{W_2}$ - наилучшая линейная оценка величины $W_2$ по наблюдениям $\{ W_1,W_4\}$. Во сколько раз среднеквадратичная ошибка $M(\hat{W_2}-W_2)^2$ будет меньше $DW_2$, если $W=(W_1, W_2, W_3, W_4)$ - центрированный, и ковариционная матрица:
$ \begin{bmatrix}
1 & 1 & 1 & 1\\
1 & 2 & 2 & 2 \\
1 & 2 & 3 & 3 \\
1 & 2 & 3 & 4
\end{bmatrix}           $

Что я знаю\умею:
$DW_2$ стоит на диагонали ковариационной матрицы(элемент $a_{2,2}$) и равна 2. То, что вектор центрированный дает нам то, что у него нулевое математическое ожидание.
Так же нашла в учебнике формулу для линейной оценки для случая всего двух векторов, когда один оценивается через другой: $\hat{X}=M(X | Y) = M_x + K_{x,y}K_{y}^{-1}(y-m_y)$. и тогда $M(\hat{x}-x)^2= K_{x}-K_{xy}K^{-1}_yK_{yx}$.
Уже здесь не совсем понятно откуда берется $K^{-1}_y$. Вроде как-то должен же быть связан с ковариационной матрицей..
Как эти же формулы получить для случая, если один вектор оценивается через все остальные, если их число больше двух? Как эту же формулу получить для случая, когда один вектор оценивается не через все остальные, а через некоторые из них? Нужно ли в ковариационной матрице просто вычеркнуть ненужные строчки?
По моей логике:
В матрице ковариаций оставляем только то, что касается первого, второго и четвертого вектора:
$ \begin{bmatrix}
1 & 1 & 1\\
1 & 2 & 2 \\
1 & 2  & 4
\end{bmatrix}$
Второй вектор ставим на первое место и отчеркиваем. То что отчеркнуто в левом верхнем углу - это $K_{11}$, то что правее - $K_{12}$

Далее: $W_2(W_1,W_4)=m_1+K_{1,2}K^{-1}_{22}\begin{bmatrix}
w_1 - m_1\\
w_4 - m_4 
\end{bmatrix}$.

поскольку м.о. нулевое и вектор центрированый:
$\hat{W_2}(W_1,W_4)=(1,1)\begin{bmatrix}
2 &2\\
2 &4 
\end{bmatrix}^{-1}\begin{bmatrix}
w_1\\
w_4 
\end{bmatrix} $. и дальше найти обратную, подставить посчитать. Вопрос: куда денутся тогда неизвестные $W_1,W_4$?

 
 
 
 Re: математическая статистика (я девушка:( )
Сообщение02.01.2014, 22:27 
Аватара пользователя
В общем, всё правильно до тех пор, пока до конкретных матриц дело не дошло. После того, как вычеркнули всё, что касается $W_3$, и переставили на первое место всё, что касалось $W_2$, должна была получиться матрица ковариаций вектора $(W_2,\, W_1,\,W_4)$ такая:
$$\left(\begin{array}{ccc}2 & 1 & 2 \cr 1& 1 & 1 \cr 2& 1 & 4\end{array}\right).$$
Соответственно, $K_{1,2}=(1, \,2)$, и $K_{2,2}=\begin{pmatrix}1 & 1 \\ 1 & 4\end{pmatrix}$.

А никуда не надо девать $W_1$ и $W_4$ - Ваша оценка по определению будет их линейной комбинацией. Всего-то вся возня ради отыскания коэффициентов при $W_1$ и $W_4$. Потом подставьте результат в матожидание $M(\hat W_2-W_2)^2$, вычислите его и сравните с двойкой.

Откровенно говоря, стоило бы сразу искать $\hat{W}_2$ как линейную комбинацию $W_1$ и $W_4$ с неизвестными коэффициентами, а коэффициенты находить из условия, что разность $W_2-\hat W_2$ ортогональна (в смысле, ковариация нулевая) как $W_1$, так и $W_4$.

 
 
 
 Re: математическая статистика (я девушка:( )
Сообщение02.01.2014, 23:24 
Ага. Тогда обратная к $ \begin{matrix} 1 & 1 \\ 1 & 4\end{matrix}$ будет
$ \frac 1 3 (\begin{matrix} 4 & -1  \\ -1 & 1 \end{matrix})$.

Умножаю:
$(1,2) (\begin{matrix} 4 & -1  \\ -1 & 1 \end{matrix}) \begin{matrix} w_1  \\ w_4 \end{matrix}$. вспоминая про $\frac 1 3 $ получаю $ \frac 2 3 w_1 + \frac 1 3 w_4$.
теперь
$M(\hat {W_2} - W)^2 = M( \frac 2 3 w_1 + \frac 1 3 w_4 - W_2)^2 $.
Что делать дальше? раскрывать этот квадрат и действовать по линейности матожидания? матожидание от произведения $w_1, w_4$ равна нулю? и от $w_2 \cdot w_1, w_2 \cdot w_4 $ тоже нулю?

 
 
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 01:26 
Аватара пользователя
А Вы не забыли, что такое ковариация? С чего бы это матожидание произведения равнялось произведению матожиданий?

 
 
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 14:47 
Считаю: $M(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2)^2 = (M(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2))^2+D(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2)$ первая скобка вся равна нулю, разложить по линейности, м.о. каждого вектора равна нулю, а вторая : $\frac 4 9 Dw_1 + \frac 1 9 Dw_4 + Dw_2 = \frac 4 9 \cdot 1 + \frac 1 9 \cdot 4 + 2 = 2 \frac 8 9$. ну и поделим 2 на этот ответ и счастье.
Все верно?)
всем спасибо

 
 
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 15:59 
Нифига не верно. Вам же ласково намекнули про ковариацию, а Вы туда же, дисперсию суммы как сумму дисперсий считать. Это у коррелированных случайных величин-то.

 
 
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 16:26 
Каюсь!
тогда пересчет:
$M(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2)^2 = (M(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2))^2+D(\frac 2 3 w_1 + \frac 1 3 w_4 - w_2)$ первая скобка вся равна нулю, разложить по линейности, м.о. каждого вектора равна нулю.
Есть формула дисперсии линейной комбинации:
$D \sum c_i \cdot x_i = \sum c_i^2 \cdot Dx_i + 2 \sum_{1 \leqslant i<j  \leqslant n}  c_i c_j cov(x_i, x_j)$
в моем случае:
$\frac 4 9 Dw_1 + \frac 1 9 Dw_4 + Dw_2 + 2 (\cdot \frac 2 3 \cdot \frac 1 3 cov(w_1,w_4)+ \frac 2 3 \cdot (-1) cov(w_1, w_2) + \frac 1 3 \cdot (-1) cov(w_1, w_2)) = \frac 4 9 + \frac 4 9 + 2 + 2(\frac 2 9 \cdot 1  -\frac 2 3 \cdot 1 - \frac 1 3 \cdot 2) = \frac 2 3 $.


и два поделить на две третьих это три.
теперь все норм?

-- 03.01.2014, 17:27 --

всем спасибо за подсказки и ласковые намёки!)

 
 
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 16:31 
Вроде да, при беглом просмотре.

 
 
 
 Re: математическая статистика (я девушка:( )
Сообщение03.01.2014, 17:00 
Аватара пользователя

(Оффтоп)

Вот что за любовь к гигантским формулам там, где без формул счастье? Отчего просто не взять и не возвести в квадрат величину под знаком матожидания, и подставить все ковариации?

 
 
 [ Сообщений: 9 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group