Проверка нормальности при помощи критерия типа
0. Пусть сл. в.
![$X_i, i = 1..n$ $X_i, i = 1..n$](https://dxdy-01.korotkov.co.uk/f/4/9/4/4945b4ad56c1487aa590afc74bbd0b9682.png)
независимы и одинаково [в нашем случае (
![$\alpha, \sigma$ $\alpha, \sigma$](https://dxdy-02.korotkov.co.uk/f/d/7/b/d7b609c5aba7e1497fc53f1e879ef4bd82.png)
)-нормально] распределены; область значений сл. в.
![$X_1$ $X_1$](https://dxdy-01.korotkov.co.uk/f/4/a/0/4a0dab614eaf1e6dc58146666d67ace882.png)
разбита на
![$k$ $k$](https://dxdy-03.korotkov.co.uk/f/6/3/b/63bb9849783d01d91403bc9a5fea12a282.png)
-промежутков (классов). Введем обозначения:
![$n_j$ $n_j$](https://dxdy-02.korotkov.co.uk/f/5/4/1/54158e2c605c3ecf783cdc13e723567682.png)
,
![$j=1..k$ $j=1..k$](https://dxdy-03.korotkov.co.uk/f/e/e/0/ee0576f300d43375140881924539c10382.png)
— количество попаданий элементов выборки в
![$j$ $j$](https://dxdy-04.korotkov.co.uk/f/3/6/b/36b5afebdba34564d884d347484ac0c782.png)
-ый промежуток,
![$\sum_{j=1}^k n_j = n$ $\sum_{j=1}^k n_j = n$](https://dxdy-02.korotkov.co.uk/f/5/f/e/5fe086ae9a9bb8fed631cc3318e530b582.png)
;
![$p_j(\alpha, \sigma)$ $p_j(\alpha, \sigma)$](https://dxdy-02.korotkov.co.uk/f/1/2/0/120b257ad0df7ffd582ffd1d6f3b961a82.png)
— зависящая от неизвестных параметров вероятность попадания элемента выборки в
![$j$ $j$](https://dxdy-04.korotkov.co.uk/f/3/6/b/36b5afebdba34564d884d347484ac0c782.png)
-ый промежуток;
![$\hat \theta$ $\hat \theta$](https://dxdy-01.korotkov.co.uk/f/0/5/5/055db613be0ef7d04933b1c081a34b7e82.png)
— мультиномиальная оценка максимального правдоподобия (м.о.м.п.) — оценка, максимизирующая функцию правдоподобия (или, что эквивалентно, логарифм функции правдоподобия) сгруппированных данных, т.е. такая оценка, что при
![$\theta = \hat \theta$ $\theta = \hat \theta$](https://dxdy-04.korotkov.co.uk/f/b/c/c/bccab45928897a7d2bf81bc3e4713d7f82.png)
логарифм функции правдоподобия
![$L(\theta; n_1..n_k) = \sum_{j=1}^k n_j \ln p_j(\theta) + \ln \frac{n!}{n_1! \cdots n_k!}$ $L(\theta; n_1..n_k) = \sum_{j=1}^k n_j \ln p_j(\theta) + \ln \frac{n!}{n_1! \cdots n_k!}$](https://dxdy-04.korotkov.co.uk/f/7/a/0/7a00d4c535aa1ada0769356e395bd7fe82.png)
достигает максимума.
По теореме Фишера, статистика
![$X^2(\hat {\theta})= \sum_{j=1}^{k}\frac{(n_j - np_j(\hat{\theta}))^2}{np_j(\hat{\theta})}$ $X^2(\hat {\theta})= \sum_{j=1}^{k}\frac{(n_j - np_j(\hat{\theta}))^2}{np_j(\hat{\theta})}$](https://dxdy-02.korotkov.co.uk/f/1/3/3/13314802b4b6e5f6fdb3ee361596483e82.png)
распределена, при
![$n \to \infty$ $n \to \infty$](https://dxdy-01.korotkov.co.uk/f/8/e/5/8e5ac09b149a8f375637b349458e91e182.png)
, как
![$\chi^2_{k-s-1}$ $\chi^2_{k-s-1}$](https://dxdy-02.korotkov.co.uk/f/5/b/6/5b6e3b4f9915c2ff6f6e3ce7d8e962a682.png)
, где
![$s$ $s$](https://dxdy-03.korotkov.co.uk/f/6/f/9/6f9bad7347b91ceebebd3ad7e6f6f2d182.png)
— число неизвестных скалярных параметров (в рассматриваемом случае их два:
![$\alpha$ $\alpha$](https://dxdy-01.korotkov.co.uk/f/c/7/4/c745b9b57c145ec5577b82542b2df54682.png)
,
![$\sigma$ $\sigma$](https://dxdy-01.korotkov.co.uk/f/8/c/d/8cda31ed38c6d59d14ebefa44009957282.png)
). Основанный на данной статистике критерий (критерий Пирсона для параметрической гипотезы) используется, когда разбиение области значений случайной величины «задано до получения выборки».
1. Обозначим через
![$\theta^*$ $\theta^*$](https://dxdy-02.korotkov.co.uk/f/9/9/c/99ca4eb2ad6d3384a19e7ba9486b8dac82.png)
состоятельную оценку параметра
![$\theta$ $\theta$](https://dxdy-03.korotkov.co.uk/f/2/7/e/27e556cf3caa0673ac49a8f0de3c73ca82.png)
. На основе этой оценки зададим разбиение области значений случайной величины
![$X_1$ $X_1$](https://dxdy-01.korotkov.co.uk/f/4/a/0/4a0dab614eaf1e6dc58146666d67ace882.png)
. Обозначим, аналогичную
![$X^2(\hat {\theta})$ $X^2(\hat {\theta})$](https://dxdy-01.korotkov.co.uk/f/8/b/4/8b45ed88028b85048bab53dbdcb73a6882.png)
, статистику, построенную по этому случайному разбиению, через
![$X^2(\theta^*, \hat {\theta})$ $X^2(\theta^*, \hat {\theta})$](https://dxdy-02.korotkov.co.uk/f/1/a/6/1a669b6c1a07df502f92edee1f1f78e382.png)
, т.е.
![$X^2(\theta^*, \hat {\theta}) = \sum_{j=1}^{k}\frac {(n_j - np_j(\theta^*, \hat{\theta})^2}{np_j(\theta^*, \hat{\theta})}$ $X^2(\theta^*, \hat {\theta}) = \sum_{j=1}^{k}\frac {(n_j - np_j(\theta^*, \hat{\theta})^2}{np_j(\theta^*, \hat{\theta})}$](https://dxdy-04.korotkov.co.uk/f/b/6/f/b6fc52c9c33b2f61e21ca557fe51a1d382.png)
. (1)
При выполнении некоторых условий на семейство распределений
![$X^2(\theta^* \hat {\theta}) - X^2(\hat {\theta}) \to 0$ $X^2(\theta^* \hat {\theta}) - X^2(\hat {\theta}) \to 0$](https://dxdy-01.korotkov.co.uk/f/4/8/a/48af319e3e02acec23342b49a44771df82.png)
по вероятности, при
![$n \to\infty$ $n \to\infty$](https://dxdy-03.korotkov.co.uk/f/a/2/a/a2aa5e569ac78d5ebde735427714061682.png)
(детали см. в [1]). Типичным примером применения критерия, основанного на статистике
![$X^2(\theta^*, \hat {\theta})$ $X^2(\theta^*, \hat {\theta})$](https://dxdy-02.korotkov.co.uk/f/1/a/6/1a669b6c1a07df502f92edee1f1f78e382.png)
, является такой. На основе статистики
![$\theta^*$ $\theta^*$](https://dxdy-02.korotkov.co.uk/f/9/9/c/99ca4eb2ad6d3384a19e7ba9486b8dac82.png)
задаётся разбиение, такое, что вероятность попадания в каждый интервал при
![$\theta =\theta^*$ $\theta =\theta^*$](https://dxdy-01.korotkov.co.uk/f/c/c/4/cc4597c7280a35c6a2b738d61f7ea70882.png)
равна
![$1/k$ $1/k$](https://dxdy-01.korotkov.co.uk/f/4/e/9/4e95277199ea82ce2b4bc760b02fb47f82.png)
. При заданном разбиении находят м.о.м.п. параметра
![$\theta$ $\theta$](https://dxdy-03.korotkov.co.uk/f/2/7/e/27e556cf3caa0673ac49a8f0de3c73ca82.png)
. Вычисляют статистику
![$X^2(\theta^*, \hat {\theta})$ $X^2(\theta^*, \hat {\theta})$](https://dxdy-02.korotkov.co.uk/f/1/a/6/1a669b6c1a07df502f92edee1f1f78e382.png)
и сравнивают с квантилью
![$\chi^2_{k-s-1, 1- \varepsilon}$ $\chi^2_{k-s-1, 1- \varepsilon}$](https://dxdy-04.korotkov.co.uk/f/b/2/e/b2e6a527d163a6d4ea2ccaa331214f7882.png)
соответствующего уровня
![$1- \varepsilon$ $1- \varepsilon$](https://dxdy-04.korotkov.co.uk/f/7/1/7/717886e08bf47d360c4038ddad09f16f82.png)
. Как и в критерии Пирсона для параметрической гипотезы, основную гипотезу отвергают, если
![$ X^2(\theta^*, \hat {\theta}) > \chi^2_{k-s-1, 1- \varepsilon}$ $ X^2(\theta^*, \hat {\theta}) > \chi^2_{k-s-1, 1- \varepsilon}$](https://dxdy-04.korotkov.co.uk/f/b/f/b/bfb2b4015de3dd200e4027b9f410b7e282.png)
.
2. Для вычисления м.о.м.п. можно использовать метод накопления (scoring system) Фишера. (Краткие сведения об этом методе можно найти в [2]; применение метода для получения м.о.м.п. математического ожидания при известном стандартном отклонении и м.о.м.п. стандартного отклонения при известном математическом ожидании см. в [3]). Будем использовать обозначения
![$\Delta [f(t_j)] = f(t_j) - f(t_{j-1})$ $\Delta [f(t_j)] = f(t_j) - f(t_{j-1})$](https://dxdy-01.korotkov.co.uk/f/4/a/4/4a47d68b92f782e0cae07ce79cd78faa82.png)
,
![$t_j =\frac{y_j - \alpha}{\sigma}$ $t_j =\frac{y_j - \alpha}{\sigma}$](https://dxdy-02.korotkov.co.uk/f/1/1/e/11e2ec8d37cac1106320305b3484a18282.png)
,
![$\phi = (2\pi)^{-1/2}\exp(-t^2/2)$ $\phi = (2\pi)^{-1/2}\exp(-t^2/2)$](https://dxdy-03.korotkov.co.uk/f/e/9/c/e9c4d690175f4151340f4eb3b7bbe95382.png)
— плотность стандартного нормального распределения,
![$\Phi(t) = \int_{-\infty}^t \phi (u)\,du$ $\Phi(t) = \int_{-\infty}^t \phi (u)\,du$](https://dxdy-04.korotkov.co.uk/f/f/4/3/f43f5983e91fe77eda8df2bf70cfff1582.png)
— функция стандартного нормального распределения,
![$L’_{\theta}= (L’_{\alpha}, L’_{\sigma})^T$ $L’_{\theta}= (L’_{\alpha}, L’_{\sigma})^T$](https://dxdy-01.korotkov.co.uk/f/4/9/2/492b3c44bc42145e781097fffe26a64b82.png)
— столбец «накоплений» (иногда говорят «вкладов»).
![$L’_{\alpha}(\theta)= \sum_{j=1}^k \frac{n_j}{p_j(\theta)}\frac{\partial p_j(\theta)}{\partial \alpha} $ $L’_{\alpha}(\theta)= \sum_{j=1}^k \frac{n_j}{p_j(\theta)}\frac{\partial p_j(\theta)}{\partial \alpha} $](https://dxdy-03.korotkov.co.uk/f/2/b/6/2b69a9593207d89cfa3a40589691aac582.png)
,
![$L’_{\sigma}(\theta) = \sum_{j=1}^k \frac{n_j}{p_j(\theta)}\frac{\partial p_j(\theta)}{\partial \sigma}$ $L’_{\sigma}(\theta) = \sum_{j=1}^k \frac{n_j}{p_j(\theta)}\frac{\partial p_j(\theta)}{\partial \sigma}$](https://dxdy-01.korotkov.co.uk/f/8/8/6/886b97aec33d9c025535fcbdd3402e6b82.png)
. Обозначим матрицу информации для сгруппированных данных через
![$I(\theta)$ $I(\theta)$](https://dxdy-03.korotkov.co.uk/f/6/1/a/61ac9745c94dbfdb1bd00887b609503582.png)
:
3. Для иллюстрации вышеизложенного были выполнены серии экспериментов для выборок объемов 30, 100, 200 и количестве промежутков 5 и 10. В каждой серии выполнялось 1000000 экспериментов состоящих из:
(i) генерирования выборки
(с параметрами
,
);
(ii) получения значения оценки ![$\alpha^* = \frac{1}{n}\sum_{i=1}^n X_i$ $\alpha^* = \frac{1}{n}\sum_{i=1}^n X_i$](https://dxdy-01.korotkov.co.uk/f/c/1/5/c150418433b79af0fa29389d927c424682.png)
,
![$\sigma^* = \frac{1}{n-1}\sum_{i=1}^{n} (X_i - \alpha^*)^2$ $\sigma^* = \frac{1}{n-1}\sum_{i=1}^{n} (X_i - \alpha^*)^2$](https://dxdy-02.korotkov.co.uk/f/5/4/1/541486f9c1ecc824478841d6ae1e790c82.png)
, (3)
(iii) задания разбиения
,
,
— квантиль уровня
стандартного нормального распределения;
(iv) вычисления м.о.м.п. по формуле (2) с использованием оценки (3) в качестве начального значения; (v) вычисления статистики (1) и сравнения с квантилью уровня
, которая выбиралась равной 0.80, 0.85, 0.90, 0.95, 0.99.
Первоначально, для того чтобы иметь возможность быстро выполнять длинные серии экспериментов, для вычисления функции распределения использовалась аппроксимация [4, п.7.1.26], которая имеет невысокую точность. Затем использовалась более точная аппроксимации из Cephes Math Library Release 2.8 (с максимальной погрешностью около
![$3.7 \cdot 10^{-16}$ $3.7 \cdot 10^{-16}$](https://dxdy-03.korotkov.co.uk/f/a/c/f/acfabbdae7fcc1869bae1fddabd2423382.png)
). Использование Cephes Math Library значительно улучшило сходимость.
Условие прекращения итераций
В таблице приведены результаты проверки гипотезы при различных
![$1-\varepsilon$ $1-\varepsilon$](https://dxdy-01.korotkov.co.uk/f/8/6/3/86375d1fd0574e5b7575aeb8892ce43082.png)
(вероятностях принять гипотезу, когда она верна: 0.80, 0.85, 0.90, 0.95)
Видно, что наблюдаемая частота принять гипотезу, когда она верна, хорошо соответствует номинальному уровню для выборки даже такого малого объема как 30.
Ссылки
1. Чибисов Д.М. Некоторые критерии типа
![$\chi^2$ $\chi^2$](https://dxdy-03.korotkov.co.uk/f/a/6/7/a67d576e7d59b991dd010277c7351ae082.png)
для непрерывных распределений // Теория вероят. и её примен., Т. XVI, выпуск 1, с. 3–20, 1971.
2. Рао С.Р. Линейные статистические методы и их применение. — М.: Наука, 1968.
3. Куллдорф Г. Введение в теорию оценивания. — М.: Наука, 1966.
4. Абрамовиц М., Стиган И. Справочник по специальным функциям. — М.: Наука, 1979.