Извиняюсь, что долго думал над ответом.
Обычно народ подбирает параметры, чтобы результат красивше выглядел.
То, как делает народ я знаю неплохо...
Вот только тараканы, бегающие в голове, такого делать мне не дают. У них там демократия, однако...
В обобщенном МНК
было бы отношением дисперсий
и
.
Вот в связи с этим наткнулся на одну статью (
Multi-Parameter Tikhonov Regularization), в которой предлагается схема типа:
, где
-- некий
подгоночный коэффициент, который должен давать какую-то оценку зашумлённости данных (как я понял из
другой статьи этих же авторов). Для
предполагается подобная же конструкция.
В работе я обычно использовал модификацию этого алгоритма, в которой предполагалось, что для минимизированных значений
,
должно выполняться равенство
(и для
аналогично). Но, к сожалению, по этой схеме получается, что одни из экспериментальных данных сильно "забивают эфир", т.е. целиком начинают определять результат минимизации. Тут подумалось, что может надо каким-то макаром учесть то, что количества точек
и
достаточно сильно различаются, но модификация вида
тоже счастья не много принесла. Проблему ещё составляет поиск самого решения (обычно это делалось банальным сканированием по сетке значений
). Сейчас попробовал алгоритм с апдейтом
, но сдаётся мне, что он не обязательно должен работать стабильно...
Так вот, вопрос: что я делаю не так, и где не в ту сторону иду?
P.S. Прошу прощения за столь фиговую формулировку проблемы, может завтра-послезавтра более по-человечески смогу что-то сказать...