Подведем итоги:
1. В задачах на нелинейный метод наименьших квадратов подлежащая минимизации функция – это функция суммы квадратов невязок.
2. Происходит решение задачи глобальной оптимизации по всем точкам.
3. Для минимизации ЦФ используются ряд перечисленных алгоритмов (Ньютона, Лавенберга, доверительных областей)
4. Для метода доверительных областей на каждой итерации оценивается направление спуска. Соответственно здесь необходимо знание о градиенте. При этом:
Если эта новая точка оказалась хорошей, передвинемся в нее и усилим роль нашей модели в выборе очередных точек; если же точка оказалась плохой, не будем в нее перемещаться и увеличим роль метода градиентного спуска при выборе очередной точки (а также уменьшим шаг)
(взято с
http://www.scorcher.ru/neuro/science/pe ... /mem31.htm).
Т.е. если f(x+s)>f(x) – уменьшим шаг и оставим текущую точку без изменений;
если f(x+s)<f(x) – увеличим шаг и передвинемся в данную точку (x+s);
где функция f(x) - это целевая функция.
Градиент вычисляется в конкретной точке на каждой итерации и происходит отталкивание именно от него.
Сама процедура приближения повторяется до тех пор, пока не будет достигнут критерий сходимости. При этом Мы действительно имеем две итерационные процедуры.
1. Итерация – это не посредственно приближение с найденными коэффициентами.
2. Вторая итерация - это задача минимизации суммы квадратов невязок.
Спасибо за подсказки с вашей стороны