2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


Посмотреть правила форума



Начать новую тему Ответить на тему На страницу Пред.  1, 2
 
 Re: МНК, статистика, дискретность
Сообщение27.10.2022, 03:21 
Аватара пользователя


26/05/12
1694
приходит весна?
B@R5uk в сообщении #1567853 писал(а):
Результат получается завышенным и мимо кассы совсем

Если взять только первые три полные ступеньки 15-16-16 (или что то же самое первые шесть), то получается больше похоже на правду: $$a=3/(15+16+16)=3/47=0,0638\pm 0,0003$$ Оценка относительной погрешности как отношение пол пикселя к длине шести полных ступенек даёт величину большую, чем реально извлекаемая из данных погрешность.

-- 27.10.2022, 03:23 --

Теперь бы разобраться как правильно действовать, когда под скобками округления присутствует настоящая случайная величина.

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение27.10.2022, 20:57 
Аватара пользователя


26/05/12
1694
приходит весна?
Вот пусть имеется такая простая модельная задача с зашумлённой дискретной прямой: $$y_n=\lfloor an+b+\mathcal{N}(\sigma^2)\rfloor$$ Здесь $\mathcal{N}(\sigma^2)$ — нормально распределённая случайная величина с нулевым средним. Наглядно это выглядит как-то так:

Изображение

Как действовать в этом случае?

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение28.10.2022, 08:33 
Заслуженный участник
Аватара пользователя


11/03/08
9904
Москва
Имеем дело с ошибкой, равной сумме нормального возмущения и равномерной ошибки округления. Распределение суммы отлично от нормального, но если стандартная ошибка возмущения велика сравнительно с ошибкой округления - к нормальному близко. И можно пользоваться нормальной аппроксимацией, употребляя МНК. Главного затруднения, возникающего при использовании МНК, "тяжёлые хвосты" вызывают слишком сильные изменения в оценках, одно резко отличное значение может совершенно исказить модель - тут не будет. Таким приёмом пользуются артиллеристы (Курс Артиллерии, кн.8: Теория вероятностей, рассеивание при стрельбе. Столбошинский А.П., М.: Воениздат, 1949, § 33 - "Сложение закона Гаусса и закона равной вероятности"; полковник Столбошинский там полагает, что если параметр равномерного распределения не превышает срединной ошибки, которая приблизительно 2/3 стандартного отклонения, то можно пользоваться нормальным распределением, соответственно увеличив его дисперсию, а если превышает - надо уже считать новый закон распределения для суммы). Для последнего можно воспользоваться тем, что кумулянты n-ного порядка равномерного распределения равны $\frac {B_n} n$, где $B_n$ n-ное число Бернулли.
С практической же точки зрения - надо слушать "Валенки" использовать МНК.

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение28.10.2022, 11:30 
Аватара пользователя


26/05/12
1694
приходит весна?
Евгений Машеров, а погрешность коэффициентов модели как рассчитывать?

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение28.10.2022, 13:35 
Заслуженный участник
Аватара пользователя


11/03/08
9904
Москва
Я бы тупо, как в МНК (при условии, что вклад ошибки округления по сравнению с СКО шума невелик)

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение28.10.2022, 15:03 
Аватара пользователя


26/05/12
1694
приходит весна?
Не, величина округления больше (в разы) стандартного отклонения шума. Вон даже по картинке заметно: отклонения плюс-минус один дискрет и не всегда заметны. Плюс, величину дисперсии шума я тоже не знаю, её тоже хотелось бы оценить.

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение28.10.2022, 15:32 
Заслуженный участник
Аватара пользователя


11/03/08
9904
Москва
Если бы это была прикладная задача, притом часть большой - брал бы МНК и не парился. Но если суть именно в вероятностной модели - тут, видимо, надо строить оценку ММП, учитывающую распределение ошибки округления и нормальное, причём его дисперсия - параметр. Стоит ли усложнение возможного улучшения - не уверен.

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение28.10.2022, 18:16 
Аватара пользователя


26/05/12
1694
приходит весна?
Евгений Машеров, задача в постановке выше прикладной не является, но она приближается к некоторой интересной для меня прикладной задаче. МНК как грубое начальное приближение, разумеется, стоит использовать, тем более, что прикладная задача нелинейная. Проблема в том, что в прикладной задаче дискреты находятся не в целых числах, а чуть-чуть смещены туда-сюда. И прикладная задача состоит в том, чтобы оценить все эти смещения (и дать оценку погрешностей этих оценок) для диапазона значений дискретов от 0 до, скажем, N. И тут без честной статистики уже никак, по-моему.

Евгений Машеров в сообщении #1568018 писал(а):
Стоит ли усложнение возможного улучшения - не уверен.

Как самостоятельная задача, на мой взгляд, она очень даже интересна. Кстати, мой подход трактовать функцию максимального правдоподобия как функцию плотности вероятности (после нормировки) обнаружить параметры модели такими-то — это, вообще, грамотный подход? Или есть что-то более логичное/удобное/теоретически обоснованное?

-- 28.10.2022, 18:53 --

Поигрался тут с МНК для данных на предыдущей картинке. Забавная ситуация получается с отклонениями экспериментальных данных от модели:

Изображение

Они сильно коррелируют с дробной частью модели. В любом другом случае, при наличии такой явной корреляции с какой-либо функцией от исходных данных (например, параболическая зависимость от иксов), можно было бы утверждать, что модель неверна. Здесь же модель верна, вот только с обсчётом, видимо, что-то не то.

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение29.10.2022, 00:09 
Аватара пользователя


26/05/12
1694
приходит весна?
Честный ММП. Модель: $$y_n=\lfloor an+b+\mathcal{N}(\sigma^2)\rfloor$$ Если случайная величина $$\xi\sim\mathcal{N}(\sigma^2)$$ то эта величина имеет функцию плотности вероятности $$f(\xi)=\frac{1}{\sigma\sqrt{2\pi}}\exp\left(-\frac{\xi^2}{2\sigma^2}\right)$$ и функцию распределения $$F(\xi)=\frac{1}{2}+\frac{1}{2}\operatorname{erf}\left(\frac{\xi}{\sigma\sqrt{2}}\right)$$ Равенство $$y_n=\lfloor an+b+\xi\rfloor$$ означает, что $$y_n-an-b\le\xi<y_n-an-b+1$$ Вероятность этого равна $$p_n=F(y_n-an-b+1)-F(y_n-an-b)=\frac{1}{2}\operatorname{erf}\left(\frac{y_n-an-b+1}{\sigma\sqrt{2}}\right)-\frac{1}{2}\operatorname{erf}\left(\frac{y_n-an-b}{\sigma\sqrt{2}}\right)$$ Если бы сигма была заметно больше единицы, то разницу двух функций можно было бы заменить производной, после чего получился бы стандартный МНК. Согласно ММП функция правдоподобия получится перемножением всех вероятностей: $$W(a,\;b,\;\sigma)=\prod\limits_n^{}p_n=2^{-N}\prod\limits_{n=1}^{N}\left[\operatorname{erf}\left(\frac{y_n-an-b+1}{\sigma\sqrt{2}}\right)-\operatorname{erf}\left(\frac{y_n-an-b}{\sigma\sqrt{2}}\right)\right]$$
Я правильно до сего момента действовал?

-- 29.10.2022, 00:10 --

Так же вот код программы, которым предыдущий график был получен:
код: [ скачать ] [ спрятать ]
Используется синтаксис Matlab M
%   URL: dxdy.ru/topic151133.html
%   File: line_fit_4.m
%   Date: 2022.10.28

clc
clearvars
format compact

a = 0.21;
b = 5.73;
s = 0.2;
num = 150;

nn = (1 : num)';
%yy = floor (a * nn + s * randn (size (nn)) + b);
yy = [
     5     9    12    15    18    21    24    27    31    34
     6     9    12    15    18    21    25    28    31    34
     6     9    12    15    18    22    25    28    31    34
     6     9    13    16    19    22    25    28    31    34
     6     9    13    16    19    22    25    28    31    35
     6    10    13    16    19    22    26    29    32    35
     7    10    13    16    19    22    26    29    32    35
     7    10    13    16    19    23    26    29    32    35
     7    10    13    17    20    23    26    29    32    35
     7    11    14    16    20    23    27    29    32    35
     8    11    14    17    20    24    27    29    33    36
     7    11    14    17    20    23    27    30    33    36
     8    11    15    17    20    24    27    30    33    37
     8    11    15    18    21    24    27    30    34    37
     9    12    14    18    21    24    27    30    34    37
];
yy = yy (:);

x = [nn, ones(size (nn))] \ yy;
ym = x (1) * nn + x (2);
dy = yy - ym;
fy = mod (ym, 1);

plot (fy, dy, 'o')
grid on
xlabel ('Model fractional part')
ylabel ('Residuals')
 

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение29.10.2022, 09:09 
Заслуженный участник
Аватара пользователя


11/03/08
9904
Москва
B@R5uk в сообщении #1568032 писал(а):
Они сильно коррелируют с дробной частью модели. В любом другом случае, при наличии такой явной корреляции с какой-либо функцией от исходных данных (например, параболическая зависимость от иксов
), можно было бы утверждать, что модель неверна. Здесь же модель верна, вот только с обсчётом, видимо, что-то не то.


Да вроде всё верно. График ошибки округления в зависимости от величины этой самой ошибки. Поскольку округляем к ближайшему - две прямые, округление вверх и вниз. Даже в чём-то тривиально.

-- 29 окт 2022, 09:12 --

Кстати, там округление или обрубание?

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение29.10.2022, 11:33 
Аватара пользователя


26/05/12
1694
приходит весна?
Евгений Машеров в сообщении #1568104 писал(а):
Кстати, там округление или обрубание?
Округление вниз или целая часть числа, функция floor () в Матлабе (и не только в нём). На самом деле не суть важно. Одно из другого добавлением/вычитанием 1/2 получается.
Евгений Машеров в сообщении #1568104 писал(а):
две прямые, округление вверх и вниз.
На самом деле это одна прямая, потому что дробная часть числа в некотором смысле образует кольцо. При переходе из 1 в 0 или обратно эти две прямые гладко стыкуются в одну.

Евгений Машеров в сообщении #1568104 писал(а):
Да вроде всё верно.
А что на счёт формулы функции максимального правдоподобия? $$W(a,\;b,\;\sigma)=2^{-N}\prod\limits_{n=1}^{N}\left[\operatorname{erf}\left(\frac{y_n-an-b+1}{\sigma\sqrt{2}}\right)-\operatorname{erf}\left(\frac{y_n-an-b}{\sigma\sqrt{2}}\right)\right]$$ Мне тут так видится, что в случае, когда сигма мало (в несколько раз меньше единицы), а отклонение точек от модели близко к -1/2 $$y_n-an-b\simeq-\frac{1}{2}$$ то разность функций ошибок в $p_n$ отличается от 2 где-нибудь в 4—6 знаке после запятой и при вариации искомых параметров модели (в разумных пределах) особо заметно не меняется. Другими словами, некоторые экспериментальные точки не вносят никакого вклада в значение искомых параметров. Похожая ситуация была в случае отсутствия шума: там вообще параметры модели определялись всего 4-мя точками из больше сотни. Текущая ситуация должна переходить в предыдущую при $\sigma\to 0$, по идее.

 Профиль  
                  
 
 Re: МНК, статистика, дискретность
Сообщение06.11.2022, 19:52 
Аватара пользователя


26/05/12
1694
приходит весна?
Может, вместо квадратов в МНК какую-нибудь такую функцию использовать? $$f\left(x,s\right)=\left\{\begin{matrix}0,&\left|x\right|\le s\\{{\left(\left|x\right|-s\right)}^2}&\left|x\right|\ge s\\ \end{matrix}\right.$$ Где параметр s подстраивается в зависимости от шага дискрета и величины шума.

А то порой сморишь на следующую картинку и понимаешь, что ну никак тут МНК не мог правильно отработать. Усреднил длинные хвосты, когда вся полезная инфа в начале.

Изображение

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 27 ]  На страницу Пред.  1, 2

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group