2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


Посмотреть правила форума



Начать новую тему Ответить на тему
 
 Метод максимального правдоподобия
Сообщение19.03.2024, 18:46 
Аватара пользователя


24/02/24

67
Почему ММП для выборки из неизвестного нормального распределения дает смещенную оценку для дисперсии? :? Он же вроде как основан на фундаментальных вещах - теореме Байеса, почему же он дает ошибочный результат?

-- 19.03.2024, 18:57 --

Наверное это связано с тяжелым хвостом для апостериорного распределения дисперсий? :roll: Там же по гиперболе будет убывать

 Профиль  
                  
 
 Re: Метод максимального правдоподобия
Сообщение19.03.2024, 19:07 


10/03/16
4444
Aeroport
Gevin Magnus в сообщении #1633409 писал(а):
Он же вроде как основан на фундаментальных вещах - теореме Байеса


В смысле на формуле Байеса? Чтобы наивероятнеейшее значение неизвестного параметра совпало с оценкой МП, его априрное распределение должно быть равномерным (ну хотя бы на разумном отрезке). И вот тут будет разный результат в зависимости от того, что считать неизвестным параметром - СКО или дисперсию (если у с.в. распределение равномерное, то у ее квадрата/корня - нет).

 Профиль  
                  
 
 Re: Метод максимального правдоподобия
Сообщение19.03.2024, 23:36 
Аватара пользователя


24/02/24

67
Gevin Magnus в сообщении #1633409 писал(а):
Наверное это связано с тяжелым хвостом для апостериорного распределения дисперсий? :roll: Там же по гиперболе будет убывать

Хотя не, это только для выборки из одного элемента :-)
ozheredov в сообщении #1633415 писал(а):
И вот тут будет разный результат в зависимости от того, что считать неизвестным параметром - СКО или дисперсию (если у с.в. распределение равномерное, то у ее квадрата/корня - нет).

Пусть будет дисперсия

 Профиль  
                  
 
 Re: Метод максимального правдоподобия
Сообщение20.03.2024, 08:09 
Заслуженный участник
Аватара пользователя


11/03/08
9904
Москва
0. ММП на теореме Байеса не основан. Он, в определённом смысле, байесовскому оцениванию противоположен. Байес предполагает, что значения параметров случайны с известным распределением, и надо оценить значение в данном опыте, опираясь на это распределение и на результаты опыта. В ММП значения параметров предполагаются однозначно определёнными, хоть и неизвестными.
1. "Ошибочный результат" и "результат с ошибкой" не синонимы. "Ошибочный" - тот, которым нельзя пользоваться. "С ошибкой" - имеет отклонения от точного значения, что следует учитывать при использовании. В статистике результатов "без ошибки" не бывает (ну, разве что число элементов выборки нам точно известно).
2. Ошибки бывают разные, причём настолько разные, что их невозможно проранжировать, указав лучшую. Несмещённость - один из критериев, сужающих выбор метода оценивания, так что в нём можно уже выбрать наилучшую (скажем, имеющую минимальную дисперсию). Но при этом она может оказаться очень плоха по иному критерию (скажем, если нам важна робастность - то прекрасная оценка матожидания, несмещённая и с минимальной дисперсией, среднее арифметическое, может быть решительно скверной; а медиана удовлетворительна).
3. ММП ищет максимум функции правдоподобия. Максимум функции плотности распределения, выворачиванием которой наизнанку получена функция правдоподобия, есть мода. А мода и матожидание могут не совпадать, гарантировано совпадение лишь для симметричных одномодальных. Для дисперсии же, как сказано в классическом произведении, "правый хвост длиннее". То есть модальное значение и матожидание не совпадают. Соответственно, различаются и оценки, исходящие из разных критериев, и оптимальная по одному не удовлетворяет другому (и наоборот). Более того, можно рассмотреть и комбинированный критерий, дисперсия плюс квадрат смещения (квадрат гипотенузы, однако, правда, товарищ Пифагор?), и тогда получим третий вариант, где сумма квадратов отклонений от среднего делится не на n, как в ММП, и не на $n+1$, как при несмещённом оценивании дисперсии, а на $n+1$, и это не ошибка, а ещё один вариант из множества.
4. Если мы подвергаем переменную нелинейному преобразованию, преобразуется и её функция распределения, причём мода, матожидание и т.п. сдвигаются по-разному. И так как корень квадратный это нелинейное преобразование, то получить несмещённую оценку СКО, извлекая корень из несмещённой оценки дисперсии, не получается.

 Профиль  
                  
 
 Re: Метод максимального правдоподобия
Сообщение20.03.2024, 13:30 
Заслуженный участник
Аватара пользователя


11/03/08
9904
Москва
Поздно заметил очепятку. Для несмещённого делится, разумеется, на $n-1$. Сорри.
Для стандартного отклонения универсальной для всех распределений поправки не существует, для нормального надо делить на поправочный коэффициент $c_{4}(N)\,=\,{\sqrt {\frac {2}{N-1}}}\,\,\,{\frac {\Gamma \left({\frac { N}{2}}\right)}{\Gamma \left({\frac {N-1}{2}}\right)}}$, приближённая поправка выглядит, как ${\hat {\sigma }}={\sqrt {{\frac {1}{N-1.5}}\sum _{i=1}^{N}\left(x_{i}-{\bar {x}}\right)^{2}}}$

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 5 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: YandexBot [bot]


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group