2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 методы многомерной оптимизации, вопрос
Сообщение09.11.2011, 17:28 
Почему в методе Ньютона нет шага, а остальные методы, например, методы градиентного спуска или другие методы второго порядка без него не обходятся?
$x_k_+_1=x_k - H^-^1(x_k) \operatorname{grad} f(x_k) $
Где H - матрица гессе.

 
 
 
 Re: методы многомерной оптимизации, вопрос
Сообщение09.11.2011, 17:48 
Ven0m104 в сообщении #501617 писал(а):
Почему в методе Ньютона нет шага

В смысле "нет шага"? Вычисление $x_{k+1}$ как функции от $x_k$ - это шаг итерации метода Ньютона. Устраивает он Вас?

 
 
 
 Re: методы многомерной оптимизации, вопрос
Сообщение09.11.2011, 18:55 
Аватара пользователя
Видимо, вопрос в том, почему нет "длины шага", как настроечного параметра?
Потому, что матрица Гессе уже его задаёт. Наилучшим образом, если минимизируется квадратическая функция, близким к наилучшему, если близкая к квадратической.

 
 
 
 Re: методы многомерной оптимизации, вопрос
Сообщение09.11.2011, 19:44 
Да, я именно об этом, спасибо.

 
 
 [ Сообщений: 4 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group