Друзья!
Решается задача нелинейной регрессии (может быть термин "регрессия" здесь не совсем корректен) методом наименьших расстояний [Айвазян и др., Прикладная статистика: исследование зависимостей; Грешилов, Математические методы принятия решений]. Немного обсуждалась в теме
взвешенная регрессия. В общем виде условие задачи можно сформулировать так: переменные
(
штук) и переменные
(
штук) связаны уравнением
. Параметры
(
штук) неизвестны, их нужно оценить по экспериментальным данным. Есть выборка
,
размерностью
,
размерностью
экспериментальных данных, при этом элементы матрицы
известны точно (можно записать
), а элементы матрицы
измерены с погрешностью, эксперимент пассивный, т.е.
измерены после проведения эксперимента. Предполагается, что ошибки измерений подчиняются многомерному нормальному распределению с нулевым центром и ковариационными матрицами
, известными для каждого отдельного эксперимента, т.е.
, где
подчиняется
,
. Необходимо получить точечную и интервальную оценку вектора параметров
. Функция правдоподобия в этом случае запишется как
Оценки
могут быть найдены минимизацией
с условиями
. Фактически, это приводит к методу минимальных расстояний, где расстояния от точки эксперимента
до аппроксимирующей функции
считается как расстояние Махаланобиса. Получение точечных оценок не составляет труда, одновременно получим оценки
и матрицы
. Для получения интервальных оценок нужно получить матрицу вторых и смешанных производных функции
по
(матрицу Гессе). Но сложность в том, что
в явном виде не зависит от
, зависит опосредованно через условия
.
Вопрос в том, как в таком случае получить матрицу Гессе? Можно ли ее получить через производные (первые, вторые, смешанные)
по
и
по
и по
?
Извиняюсь, что длинно получилось.