Речь идёт об обычном МНК?
?
Тогда нет разницы между отклонениями, вызванными влиянием случайных неучтённых факторов, влияющих на y, и вызванных ошибками измерения величины y. Они все входят в
, и "погрешность наклона", стандартная ошибка для коэффициента регрессии, считается по обычной формуле. Если Вы измерите с большими ошибками - у Вас просто получится большее значение оценки для
и соответственно вырастет стандартная ошибка.
Если же у Вас какая-то иная модель, скажем, с ошибками измерения независимых переменных, там оценка другая, и зависит от метода оценивания.
-- 25 мар 2015, 15:15 --Обычно же погрешность наклона считается следующим образом: Считаем при каком
минимален. Затем немного изменяем
, соответственно, увеличивается
. И
=
-
, где
соответствует
и
-
больше какого-то определенного значения(1, что-ли?)
Это какой-то... эээ... нетрадиционный метод. Ну, то есть оценивание по минимуму
существует, наверно, можно и к регрессии применить, но что-то я такого не встречал на практике. А вот варьирование коэффициентов, пересчёт
(кстати, для какой величины считаем это?) и, главное, задание некоего фиксированного порога
Цитата:
(1, что-ли?)
это что-то новое и свежее...
Можно подробности?