Вот и интересно, когда и почему так лучше.
Понятно, что если ошибки имеются не только в измерении
![$y_i$ $y_i$](https://dxdy-03.korotkov.co.uk/f/2/b/4/2b442e3e088d1b744730822d18e7aa2182.png)
, но и в измерении
![$x_i$ $x_i$](https://dxdy-02.korotkov.co.uk/f/9/f/c/9fc20fb1d3825674c6a279cb0d5ca63682.png)
, то задача усложняется. Если дисперсия ошибок
![$x_i$ $x_i$](https://dxdy-02.korotkov.co.uk/f/9/f/c/9fc20fb1d3825674c6a279cb0d5ca63682.png)
и
![$y_i$ $y_i$](https://dxdy-03.korotkov.co.uk/f/2/b/4/2b442e3e088d1b744730822d18e7aa2182.png)
равны, то в случае линейной зависимости приходим к опусканию перпендикуляров из точек на прямую.
Вообще, нужно смотреть книги по
Метод наименьших полных квадратов. Сам я таких книг на русском не знаю. Но на английском вроде есть. (Несмещённость оценок параметров в случае простого МНК получается в предположении отсутствия погрешностей в
![$x_i$ $x_i$](https://dxdy-02.korotkov.co.uk/f/9/f/c/9fc20fb1d3825674c6a279cb0d5ca63682.png)
. Если же погрешности есть, то нужно уже искать не разность вдоль ординат. Вот и довод.)
-- Sun 23.04.2023 20:58:52 --Здесь, видимо, опечатка: нет никакого смысла писать линейный член дважды.
Да, конечно, спасибо за замечание.
-- Sun 23.04.2023 21:03:38 --В книжке
Демиденко Е. З. Линейная и нелинейная решгрессия, 1981 есть глава 4 ошибки в независимых переменных.
-- Sun 23.04.2023 21:18:32 --Даже в случае независимости, несмещённости и одинаковой распределённости ошибок измерения
![$x_i$ $x_i$](https://dxdy-02.korotkov.co.uk/f/9/f/c/9fc20fb1d3825674c6a279cb0d5ca63682.png)
в случае квадратичной зависимости очевидно всё сложно: квадрат нормально распределённой случайной величины уже не будет нормально распределённой.