Здравствуйте! Я исследую возможность использования теоретико-информационных критериев AIC (критерий Акаике) и MDL (критерий минимальной длины описания) для определения количества источников сигналов по конечной выборке наблюдений сигналов на датчиках некоторой антенной решетки. Насколько я понял, данные критерии работают в ситуации когда имеется некоторый набор наблюдений:

и набор моделей, параметризуемых своими плотностями вероятностей:

. Необходимо выбрать модель, наилучшим образом описывающую имеющиеся данные. Данные критерии вычисляются в зависимости от количества параметров модели.


Я нашел статью, в которой как раз описывается применение данных критериев для оценки количества источников сигналов. Но при попытке повторить их выводы моя результирующая логарифмическая функция правдоподобия получилась не такой как в статье. Опишу суть проблемы.
Относительно данных предполагаем что каждое наблюдение описывается как комплексный Гауссовский вектор с нулевым математическим ожиданием, статистически независимый от других векторов. Для описания набора моделей в статье описывается семейство корреляционных матриц, параметризуемое количеством сигналов k:

Здесь первое слагаемое в правой части это сигнальная часть матрицы, а вторая описывает шумы в каналах решетки с дисперсией

. В виде спектрального разложения это выражение представляется так:

Здесь

и

собственные значения и соответствующие им собственные векторы матрицы

.
Вектор параметров модели описывается следующим образом:

.
Плотность вероятности N - мерной Гауссовский случайной величины задается в статье так:
![$f\left( {x|{\Theta ^{\left( k \right)}}} \right) = \frac{1}{{{\pi ^p} \cdot \left| {{R^{\left( k \right)}}} \right|}} \cdot \exp \left( { - {x^T} \cdot {{\left[ {{R^{\left( k \right)}}} \right]}^{ - 1}} \cdot x} \right)$ $f\left( {x|{\Theta ^{\left( k \right)}}} \right) = \frac{1}{{{\pi ^p} \cdot \left| {{R^{\left( k \right)}}} \right|}} \cdot \exp \left( { - {x^T} \cdot {{\left[ {{R^{\left( k \right)}}} \right]}^{ - 1}} \cdot x} \right)$](https://dxdy-02.korotkov.co.uk/f/9/1/f/91fa2e75b9c309e61695a6aa38f7168482.png)
Где матрица

определяется векторным параметром

.
Учитывая статистическую независимость наблюдений совместную плотность веротяности можно записать следующим образом:

Теперь если взять от совместной плотности веротяности логарифм и оставить только члены, зависящие от

, в статье получилось следующее выражение:
![$L\left( {{\Theta ^{(k)}}} \right) = - N \cdot \log \left| {{R^{\left( k \right)}}} \right| - \operatorname{tr} \left( {{{\left[ {{R^{\left( k \right)}}} \right]}^{ - 1}} \cdot \widehat R} \right)$ $L\left( {{\Theta ^{(k)}}} \right) = - N \cdot \log \left| {{R^{\left( k \right)}}} \right| - \operatorname{tr} \left( {{{\left[ {{R^{\left( k \right)}}} \right]}^{ - 1}} \cdot \widehat R} \right)$](https://dxdy-01.korotkov.co.uk/f/0/7/6/0764dbbd503a3299c561e67db8f78e3182.png)
(1)
Где

- максимально правдоподобная оценка выборочной корреляционной матрицы.
На мой взгляд, здесь явно пропущен множитель N во втором слагаемом в правой части. Я повторил весь вывод и провел дополнительно численную проверку и убедился что это действительно так. Для применения выбранных критериев необходим максимум логарифмической функции правдоподобия. Максимум достигается, как доказывается в другой статье, если сформировать вектор параметров следующим образом:

,

,

,

,

,
где

собственные числа и

соответствующие собственным числам собственные векторы выборочной корреляционной матрицы

,

- количество каналов. Как утверждается далее в статье, если сформировать векторный параметр

и подставить его в (1), то после несложных преобразований получим:

Я провел преобразования и получил несколько иной вид логарифмической функции правдоподобия:

При этом численное моделирование показывает что мой вывод соответствует исходной формуле (1). Численное же моделирование общей задачи показывает одинаковое поведение критериев как с исходной так и с моим вариантом функции правдоподобия. Это наводит на мысль о некоем асимптотическом переходе, который усмотрели авторы статьи и не вижу я. Буду очень благодарен если кто - то сможет проверить мои выводы и подтвердить или опровергнуть мои результаты. Буду рад любой полезной информации!