Чуть-чуть почитал
Википедию. Когда-то читал учебники, но было это очень давно и мог чего забыть.
Метод градиентного спуска состоит в том, что на каждом шаге проводим через очередную точку прямую в направлени градиента, ищем на этой прямой точку минимума функции и берём её за очередную.
Метод сопряжённых градиентов аналогичен предыдущему, за исключением единственной малости: направление, начиная со второй точки, берётся не вдоль градиента, а вдоль градиента с некоторой поправкой, рассчитываемой по двум последним точкам по достаточно простой формуле.
То бишь, источник каких-то принципиальных трудностей мне совершенно неясен.
И почему вы говорите о линейном случае? Для поиска экстремума линейной функции применяются совершенно другие методы. Оба метода градиентов применяются в
нелинейном программировании.
-- 06.12.2014, 01:07 --Посмотрел страницу 42. Ну да, разумеется, методы нелинейного программироования можно применять для линейного. С выбором шага вы, как понимаю, не сталкивались именно потому, что решали задачи линейного программирования, я правильно понял?
Ну что ж, для поиска минимума — теперь уже функции одной переменной — нужно либо решать каждый раз уравнение, зависящее от вида минимизируемой функции, либо численно, поинтересуйтесь соответствующими методами. И да, скорость при этом ощутимо падает, будьте к этому готовы.