2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


Посмотреть правила форума



Начать новую тему Ответить на тему
 
 Сравнение 2 оценок параметра
Сообщение09.07.2020, 20:37 


08/08/17
13
Пусть $x$ — некоторый неизвестный вектор, мы хотим оценить его, имея некоторые наблюдения $y_i = H_i x_i + \varepsilon_i,$
где $i \in [1:N]$, $\{\varepsilon_i \}_{i=1}^N$ попарно независимые нормальные шумы с единичной ковариационный матрицей, $H_i$ матрица полного ранга, $y_i$ вектор.

Рассматривая $x_i = x$ для любого $i$, мы можем оценить $x$ с помощью МНК:
$$x = \left(u^T H^T H u \right)^{-1} u^T H^T y$$
где $H = \operatorname{diag}(H_1, \dots, H_N)$, $u = (\mathrm{Id}^T, \dots, \mathrm{Id}^T)^T$ $y = (y_1^T, \dots, y_N^T)^T$.

С другой стороны, пусть $\{x_i\}_{i=1}^{N}$ стохастический процесс с нулевым матожиданием и известной ковариационной функцией. Тогда мы можем оценить этот параметр таким образом:
$$x' = (H^T H + Q^{-1})^{-1}(H^T y)$$
где $H = \operatorname{diag}(H_1, \dots, H_N)$, $Q_{ij} = \mathrm{cov}(x_i, x_j)$.

Кажется очевидным, что при правильно выбранном $Q$ оценки должны быть близки, то есть если положить $x' = ux + \delta(Q)$, то при некоторых $Q$ вектор $\delta(Q)$ будет малым вне зависимости от матриц $H_i$ и векторов $y_i$. Например подойдет $Q_{ij} := E + (\min(i,j) - 1) e$, где $E \gg 1$, $e \ll 1$ (случайное блуждание с большой начальной ковариацией и маленькой ковариацией переходов на следующий шаг).

Я пытался доказать это алгебраически и найти, как зависит $\delta$ от $E$ и $e$ в выше написанном случае, но у меня ничего не получилось. Как можно это сделать?

Заранее спасибо.

 Профиль  
                  
 
 Re: Сравнение 2 оценок параметра
Сообщение10.07.2020, 10:53 
Заслуженный участник
Аватара пользователя


11/03/08
10232
Москва
Вектор x константный, или каждое $x_i$ отлично от других?

 Профиль  
                  
 
 Re: Сравнение 2 оценок параметра
Сообщение10.07.2020, 11:06 


08/08/17
13
Евгений Машеров в сообщении #1473156 писал(а):
Вектор x константный, или каждое $x_i$ отлично от других?

В каждый момент времени $i$ вектор $x_i$ одинаковый.

 Профиль  
                  
 
 Re: Сравнение 2 оценок параметра
Сообщение11.07.2020, 08:05 
Заслуженный участник
Аватара пользователя


11/03/08
10232
Москва
Тогда я не совсем понял, как Вы вывели первую оценку. У меня МНК получается
$x_i=(H_i^TH_i)^{-1}H_i^Ty_i$

 Профиль  
                  
 
 Re: Сравнение 2 оценок параметра
Сообщение11.07.2020, 10:59 


08/08/17
13
Евгений Машеров, я не хотел расписывать подробно и видимо потерял часть смысла.

Пусть есть совокупность наблюдение $y_i = H_i x_i + \varepsilon_i$, где:
- $i \in [1 : N]$
- $x_i \in \mathbb{R}^{n}$ — вектор состояния в момент времени $t_i$;
- $y_i \in \mathbb{R}^{m_i}$ — наблюденное значение в момент времени $t_i$;
- $\mathrm{H}_i \in \mathbb{R}^{m_i \times n}$ — матрица (полного ранга) наблюдений в момент времени $t_i$;
- $\varepsilon_i \in \mathbb{R}^{m_i}$ — шумы наблюдений, многомерные нормальные попарно некоррелируемые случайные величины с единичной дисперсией.

Предполагается, что $\sum_{i=1}^N m_i > n$, однако по в каждом конкретном эксперименте $m_i < n$, и мы не можем вычислить $x_i$, применив МНК к каждому наблюдению отдельно. Зато мы можем:
1. Предположить, что $x_i$ это значение некоторого стохастического процесса $x(\cdot)$ с нулевым матожиданием и известной ковариационной функцией $k(t,s)$ в момент времени $t_i$. В этом случае оценкой будет
$$ \hat{x} = (H^T H + Q)^{-1} H^T y $$
где $\hat{x} = (\hat{x}_1^T, \dots, \hat{x}_N^T)^T$; $y = (y_1^T, \dots, y_N^T)^T$; $H = \operatorname{diag}(H_1, \dots, H_N)$ — блочно-диагональная матрица, на $(i,i)$-том месте которой стоит $H_i$; $Q$ — блочная матрица, на $(i,j)$-том месте которой стоит матрица $\operatorname{cov}(x_i, x_j) = k(t_i, t_j)$.
2. Предположить, что все вектора $x_i$ одинаковы. Тогда:
$$\begin{pmatrix} y_1 \\ \dots \\ y_N \end{pmatrix}= 
\begin{pmatrix} H_1 \\ \dots \\ H_N \end{pmatrix}x + 
\begin{pmatrix} \varepsilon_1 \\ \dots \\ \varepsilon_N \end{pmatrix}$$
Введя блочный вектор $u$, в $i$-том блоке которого стоит единичная матрица размера $\mathbb{R}^{n \times n}$, мы можем записать эту оценку в терминах предыдущей:
$$\hat{x}' = \left( (Hu)^T Hu \right)^{-1} (Hu)^T y = \left( u^T H^T H u \right)^{-1} u^T H^T y$$

Вопрос в следующем: очевидно, если брать некоторые типы случайных процессов (которые имеют огромную ковариацию первого состояния $x_1$ и почти нулевую ковариацию разностей $(x_{i+1} - x_i)$), то оценка $\hat{x}'$ должна пости свопасть сло второй оценкой: $\left\|\hat{x}'_i - \hat{x}  \right\| \ll 1$ для любых $i$. Но доказать это у меня не получилось из-за того, что формула Вудбюрри и формула обращения возмущенной матрицы $\left( V + \Delta \right)^{-1} =V^{-1} - V^{-1} \Delta V^{-1} + O \left( \left \| \Delta \right \|^2 \right)$ не работают: им мешает необратимость матрицы $H^T H$.
Возможно, кто-то догадывается, как это проще доказать.

 Профиль  
                  
 
 Re: Сравнение 2 оценок параметра
Сообщение11.07.2020, 22:09 
Заслуженный участник
Аватара пользователя


11/03/08
10232
Москва
Ну, если бы я столкнулся с задачей практически, то пробовал бы через псевдообращение.
$x_i=H^+y_i$
Где псевдообратная определена через сингулярное разложение, или, скажем, как
$H^+=\lim_{k\rightarrow 0}(H^TH+kI)^{-1}H^T$
А потом бы пытался как-то скомпоновать $x_i$ с учётом их коррелированности.

 Профиль  
                  
 
 Re: Сравнение 2 оценок параметра
Сообщение28.07.2020, 20:23 


08/08/17
13
Евгений Машеров, вашим способом я ничего не добился, но задачу все-таки решил (в интересующем меня частном случае).

Решается она примерно следующим образом:
1. Нужно показать, что обратная матрица к матрице ковариации Марковского процесса - это блочная трехдиагональная матрица.
2. Придумать аналог блочный аналог метода прогонки.
3. Поупращать формулы перехода в блочном методе прогонки, воспользовавшись формулой обращения для возмущенных матриц $(A + \varepsilon \Id)^{-1} = A^{-1} + \varepsilon A^{-2}$.

Что интересно, взятое наобум случайное блуждание с большой начальной ковариацией и маленькой ковариацией переходов на следующий шаг идеально подошло, и после прогонки получается, что $\left\|x'_i - x \right\| = O(e, E^{-1})$

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 7 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: confabulez


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group