Извиняюсь, что долго думал над ответом.
Обычно народ подбирает параметры, чтобы результат красивше выглядел.
То, как делает народ я знаю неплохо...

Вот только тараканы, бегающие в голове, такого делать мне не дают. У них там демократия, однако...
В обобщенном МНК

было бы отношением дисперсий

и

.
Вот в связи с этим наткнулся на одну статью (
Multi-Parameter Tikhonov Regularization), в которой предлагается схема типа:

, где

-- некий
подгоночный коэффициент, который должен давать какую-то оценку зашумлённости данных (как я понял из
другой статьи этих же авторов). Для

предполагается подобная же конструкция.
В работе я обычно использовал модификацию этого алгоритма, в которой предполагалось, что для минимизированных значений

,

должно выполняться равенство

(и для

аналогично). Но, к сожалению, по этой схеме получается, что одни из экспериментальных данных сильно "забивают эфир", т.е. целиком начинают определять результат минимизации. Тут подумалось, что может надо каким-то макаром учесть то, что количества точек

и

достаточно сильно различаются, но модификация вида

тоже счастья не много принесла. Проблему ещё составляет поиск самого решения (обычно это делалось банальным сканированием по сетке значений

). Сейчас попробовал алгоритм с апдейтом

, но сдаётся мне, что он не обязательно должен работать стабильно...
Так вот, вопрос: что я делаю не так, и где не в ту сторону иду?
P.S. Прошу прощения за столь фиговую формулировку проблемы, может завтра-послезавтра более по-человечески смогу что-то сказать...
