2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


Посмотреть правила форума



Начать новую тему Ответить на тему
 
 Мультиколлинеарность в регрессионном анализе
Сообщение23.11.2016, 14:46 
Аватара пользователя


12/01/14
1127
Правильны ли следующие утверждения:

1. Мультиколлинеарность имеет два проявления:
а) чувствительность элементов обратной матрицы $(\mathbf F^T \mathbf F)^{-1}$ от разрядной сетки вычислений и погрешности элементов матрицы $\mathbf F^T \mathbf F$ , что приводит к неточности или вообще невозможности найти приемлемые решения для вектора параметров $\mathbf b=(\mathbf F^T \mathbf F)^{-1} \mathbf F^T \mathbf y$;
б) малое значение $det (\mathbf F^T \mathbf F )$ и как следствие большие элементы ковариационной матрицы $cov(\mathbf b)=\sigma^2(\mathbf F^T \mathbf F)^{-1}$, т.е. большая дисперсия оценок коэффициентов регрессии.

а) и б) могут проявляться как отдельно, так и вместе.

2. Несмотря на то, что существует большое количество критериев мультиколлинеарности при использовании современных пакетов компьютерной математики целесообразно для выявления мультиколлинеарности идти следующим путем:
определяется число обусловленности матрицы $ \mathbf F^T \mathbf F $, в зависимости от результата выбирается соответствующая размерность разрядной сетки вычислений или вообще отказываются от вычислений данным методом, в виду их принципиальной неточности.
Если вычисления проводить целесообразно, то определяется ковариационная матрица $cov(\mathbf b)=\sigma^2(\mathbf F^T \mathbf F)^{-1}$, на основе которой делается вывод о точности оценки коэффициентов регрессии.

 Профиль  
                  
 
 Re: Мультиколлинеарность в регрессионном анализе
Сообщение23.11.2016, 15:31 
Заслуженный участник
Аватара пользователя


11/03/08
9540
Москва
Не то, чтобы было сказано что-то неверное...
Но с точки зрения грубой практики ситуация, когда нужно использовать повышенную точность, встречается редко и почти всегда знаменует либо ошибку в алгоритме, либо неверный набор регрессоров. Как правило, double precision IEEE вполне достаточна, а это стандартный выбор для вычислений. Если матрица такова, что погрешности в последнем знаке влияют на результат, то ошибки в регрессанде вообще сделают коэффициенты бессмысленными.
Что до ковариационной матрицы для оценок, то её вычисление вообще стандартный промежуточный этап, поскольку она отличается от обратной к корреляционной лишь множителем. Хотя выдаётся обычно только её диагональная часть или корни из неё, стандартные ошибки оценок.

 Профиль  
                  
 
 Re: Мультиколлинеарность в регрессионном анализе
Сообщение23.11.2016, 15:51 
Аватара пользователя


12/01/14
1127
Евгений Машеров, спасибо, еще пара вопросов:
1. Нужны ли теперь, когда у нас есть компьютер, все эти методы проверки мультиколлинеарности, ведь мы легко можем найти число обусловленности матрицы $ \mathbf F^T \mathbf F $ или даже вообще провести имитационное моделирование, выяснив как погрешность регрессоров влияет на точность оценок.
2. Связаны ли два проявления мультиколлинеарности между собой, т.е. влечет ли плохая обусловленность матрицы $ \mathbf F^T \mathbf F $ автоматически "взрыв" дисперсии оценок... и наоборот... или эти два явления могут проявляться независимо?

 Профиль  
                  
 
 Re: Мультиколлинеарность в регрессионном анализе
Сообщение23.11.2016, 21:56 
Аватара пользователя


12/01/14
1127
prof.uskov в сообщении #1171186 писал(а):
2. Связаны ли два проявления мультиколлинеарности между собой, т.е. влечет ли плохая обусловленность матрицы $ \mathbf F^T \mathbf F $ автоматически "взрыв" дисперсии оценок... и наоборот... или эти два явления могут проявляться независимо?

Кое-что придумал
Дисперсия параметров модели определяется формулой
$cov(\mathbf b)=\sigma^2(\mathbf F^T \mathbf F)^{-1}=\sigma^2 \mathbf A^{-1}=\sigma^2 \dfrac {A^{*T}}{det A}$
Для размерности 2

$\det A= \lambda_{\min}\lambda_{\max}$

А число обусловленности

$cond(A)= \lambda_{\max}/\lambda_{\min}$

Таким образом, вроде как, число обусловленности и величина определителя (а следовательно и $cov(\mathbf b)$) между собой прямой связи не имеют.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 4 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group