2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 Нормализация ошибки в регрессионной модели
Сообщение26.10.2018, 12:19 
В регрессионном анализе многие выводы базируются на том, что аддитивная ошибка в модели регрессии имеет нормальное распределение (взять хотя бы то же тестирование значимости коэффициентов линейной регрессии). Когда это не так, напрашивается процедура "нормализации", наподобие:при одних и тех же факторах проводится несколько экcпериментов , после чего производится усреднение. В результате получается "осредненная модель":
$$\eta^{(j)} =  f(x, \theta) + \varepsilon^{(j)} \quad\mapsto\quad n^{-1}\sum_{j=1}^n\eta^{(j)} =  f(x, \theta) + n^{-1}\sum_{j=1}^n  \varepsilon^{(j)}$$
в которой, в силу ЦПТ, можно надеяться на близость ошибки к нормальной.
Но почему-то я в явном виде такого подхода нигде не увидел. Буду благодарен, если подскажете, в каком направлении копать.

 
 
 
 Re: Нормализация ошибки в регрессионной модели
Сообщение26.10.2018, 12:39 
Если у вас ошибка аддитивна и не зависит от адаптора, проблем нет и копать тоже некуда

 
 
 
 Re: Нормализация ошибки в регрессионной модели
Сообщение26.10.2018, 14:01 
Аватара пользователя
Если у Вас есть возможность провести несколько серий экспериментов, то целесообразнее объединить выборки. Если ошибки в сериях независимы, то коэффициенты будут "нормализоваться" сами. Это легко показать, рассмотрев семиинварианты. Кроме того, при увеличении выборки легче обнаружить грубые отклонения от нормальности (выбросы), которые могут сильно исказить результат.

 
 
 [ Сообщений: 3 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group