2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


Посмотреть правила форума



Начать новую тему Ответить на тему
 
 Взвешенный МНК
Сообщение19.03.2018, 03:56 
Заслуженный участник
Аватара пользователя


22/06/12
2129
/dev/zero
Добрался до процедуры взвешенного оценивания. Привожу то построение, по которому есть вопросы.

Итак, $\varepsilon_i \sim \mathcal N(0, \sigma^2_i)$. Регрессионное уравнение $y = a + bx$, $y_i = a + b x_i + \varepsilon_i$. Делим всё на $\sigma_i$. Обозначим $w_i = 1/\sigma_i$. Получаем
$$
y_i w_i = a w_i + b x_i w_i + f_i, \quad f_i \sim \mathcal N(0, 1).
$$
Минимизируем
$$
S = \sum_i (y_i w_i - \hat b x_i w_i - \hat a w_i)^2 \to \min.
$$
Получаем систему уравнений
$$
\begin{cases}
0 = \frac{\partial S}{\partial \hat a} = - 2 \sum_i (y_i w_i - \hat b x_i w_i - \hat a w_i) w_i, \\
0 = \frac{\partial S}{\partial \hat b} = - 2 \sum_i (y_i w_i - \hat b x_i w_i - \hat a w_i) x_i w_i, \\
\end{cases}
$$
и условие на минимум функции двух переменных: положительная определённость матрицы Гессе $H$
$$
H = 2\begin{pmatrix}
\sum_i w^2_i & \sum_i x_i w^2_i \\
\sum_i x_i w^2_i & \sum_i x^2_i w^2_i
\end{pmatrix}.
$$

Суть вопроса в том, что положительную определённость установить не удаётся: левый верхний элемент $> 0$, а второй минор есть
$$
\det H = \left(\sum_i w^2_i \right)\left(\sum_i x^2_i w^2_i \right) - \left(\sum_i x_i w^2_i \right)^2 = \sum_{i, j} w^2_i w^2_j (x^2_j - x_i x_j) 
= \sum_{i, j} w^2_i w^2_j x_i x_j (\delta_{ij} - 1)$$
и не очень понятно, на основании чего можно заключить, что $\det H > 0$.

Я со своей колокольни предполагаю, что это вообще неверно, и возможно, что на некоторых наборах данных может быть и $\det H < 0$ (при этом из-за левого верхнего элемента даже отрицательной определённости не будет), и что, тогда у $S$ может вообще не быть минимума. Для взвешенного МНК это типично, или всё можно увидеть, что $\det H > 0$?

-- 19.03.2018, 04:02 --

StaticZero в сообщении #1298248 писал(а):
Я со своей колокольни предполагаю, что это вообще неверно, и возможно, что на некоторых наборах данных может быть и $\det H < 0$ (при этом из-за левого верхнего элемента даже отрицательной определённости не будет)

Более содержательно будет сказать так: положим $z_i = x_i w^2_i$, тогда форма $\det H = \sum_{i, j} z_i z_j (\delta_{ij} - 1)$ имеет матрицу
$$
D = \begin{pmatrix}
0 & -1 & \ldots & -1 \\
-1 & 0 & \ldots & -1 \\
\vdots & \vdots & \ddots & \vdots \\
-1 & -1 & \ldots & 0
 \end{pmatrix}
$$
и у этой матрицы бывают отрицательные с. з., то есть она неопределённая получается, соответственно и форма относительно $z_i z_j$ тоже неопределённая. Тогда и $\det H$ имеет любые знаки. Тогда остаётся вопрос: а это нормально?

 Профиль  
                  
 
 Re: Взвешенный МНК
Сообщение19.03.2018, 09:18 
Заслуженный участник
Аватара пользователя


11/03/08
9597
Москва
Это матрица Грама. Она неотрицательно определённая. По построению.

 Профиль  
                  
 
 Re: Взвешенный МНК
Сообщение19.03.2018, 10:26 
Заслуженный участник
Аватара пользователя


22/06/12
2129
/dev/zero
Про грамиан я понял: здесь векторы, очевидно, $\mathbf v_1 = (w_1, \ldots, w_n)^\mathrm T$ и $\mathbf v_2 = (x_1 w_1, \ldots, x_n w_n)^\mathrm T$. Значит, я что-то делаю не так, ведь лобовой способ должен дать тот же результат в конце концов.

-- 19.03.2018, 10:28 --

Хотя я даже понимаю, что. Последний переход здесь
StaticZero в сообщении #1298248 писал(а):
$$
\det H = \left(\sum_i w^2_i \right)\left(\sum_i x^2_i w^2_i \right) - \left(\sum_i x_i w^2_i \right)^2 = \sum_{i, j} w^2_i w^2_j (x^2_j - x_i x_j) 
= \sum_{i, j} w^2_i w^2_j x_i x_j (\delta_{ij} - 1)$$

некорректен.

 Профиль  
                  
 
 Re: Взвешенный МНК
Сообщение19.03.2018, 13:46 
Заслуженный участник


11/05/08
32166
StaticZero в сообщении #1298268 писал(а):
ведь лобовой способ должен дать тот же результат в конце концов.

Он конце концов и даёт: конкретно здесь (для линейной модели) положительность определителя -- это просто неравенство Коши-Буняковского. В точности оно, не более и не менее.

Которое, впрочем, само по себе отнюдь не просто. Т.е. доказывается-то просто, но отнюдь не очевидным образом.

Что касается матрицы Грама: неотрицательна она не по построению, а по теореме ( хотя и несложной). А её строгая положительность -- уже дополнительный вопрос. Конкретно для МНК (неважно, весового или нет): для положительности необходимо и достаточно, чтобы количество различных узлов было не меньше, чем количество параметров (в данном случае -- не меньше двух).

 Профиль  
                  
 
 Re: Взвешенный МНК
Сообщение19.03.2018, 14:47 
Заслуженный участник
Аватара пользователя


11/03/08
9597
Москва
Нет, я про то, что матрица в модели есть матрица Грама по построению. Что матрица Грама неотрицательно определена - доказывается, разумеется, хоть и несложно.

 Профиль  
                  
 
 Re: Взвешенный МНК
Сообщение20.03.2018, 01:03 
Заслуженный участник
Аватара пользователя


22/06/12
2129
/dev/zero
Спасибо, вкурил.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 6 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: dgwuqtj


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group