Друзья!
Решается задача нелинейной регрессии (может быть термин "регрессия" здесь не совсем корректен) методом наименьших расстояний [Айвазян и др., Прикладная статистика: исследование зависимостей; Грешилов, Математические методы принятия решений]. Немного обсуждалась в теме
взвешенная регрессия. В общем виде условие задачи можно сформулировать так: переменные

(

штук) и переменные

(

штук) связаны уравнением

. Параметры

(

штук) неизвестны, их нужно оценить по экспериментальным данным. Есть выборка

,

размерностью

,

размерностью

экспериментальных данных, при этом элементы матрицы

известны точно (можно записать

), а элементы матрицы

измерены с погрешностью, эксперимент пассивный, т.е.

измерены после проведения эксперимента. Предполагается, что ошибки измерений подчиняются многомерному нормальному распределению с нулевым центром и ковариационными матрицами

, известными для каждого отдельного эксперимента, т.е.

, где

подчиняется

,

. Необходимо получить точечную и интервальную оценку вектора параметров

. Функция правдоподобия в этом случае запишется как
![$$L=\prod_{i=1}^n \left( \frac{1}{2 \pi} \right)^{p_X/2} \left( \frac{1}{\left| \sigma^2 M_i \right|} \right)^{1/2} \exp \left[-\frac{1}{2}\left(W_i-X_i \right) \left(\sigma^2 M_i \right)^{-1}\left(W_i-X_i \right)' \right]$$ $$L=\prod_{i=1}^n \left( \frac{1}{2 \pi} \right)^{p_X/2} \left( \frac{1}{\left| \sigma^2 M_i \right|} \right)^{1/2} \exp \left[-\frac{1}{2}\left(W_i-X_i \right) \left(\sigma^2 M_i \right)^{-1}\left(W_i-X_i \right)' \right]$$](https://dxdy-03.korotkov.co.uk/f/6/7/1/671fe65226078192adc288257dadd83482.png)
Оценки

могут быть найдены минимизацией

с условиями

. Фактически, это приводит к методу минимальных расстояний, где расстояния от точки эксперимента

до аппроксимирующей функции

считается как расстояние Махаланобиса. Получение точечных оценок не составляет труда, одновременно получим оценки

и матрицы

. Для получения интервальных оценок нужно получить матрицу вторых и смешанных производных функции

по

(матрицу Гессе). Но сложность в том, что

в явном виде не зависит от

, зависит опосредованно через условия

.
Вопрос в том, как в таком случае получить матрицу Гессе? Можно ли ее получить через производные (первые, вторые, смешанные)

по

и

по

и по

?
Извиняюсь, что длинно получилось.