Дело в том, что метод дихотомии (или метод золотого сечения) в многомерном случае применять не рационально, из за большой трудоёмкости.
А можно поподробнее, почему? Навскидку, выбираем первую координату, делим по ней гиперкуб на два, выбираем нужную часть. Потом делаем то же самое по другой координате. Итого, за шагов уменьшаем объем области неопределенности в 2 раза. Таким образом, для нахождения точки минимума с точностью до нужно порядка шагов. Это считается неэффективным?upd. Кажется, понял. В многомерном случае нельзя узнать, какую часть куба отбросить по проверке значений в одной точке.
Гораздо эффективнее сначала выбрать направление поиска, а затем применить одномерную оптимизацию. Так обычно и поступают, в частности в градиентных методах.
Так там же проблема - как выбрать направление на точку минимума.
В одномерном случае градиент, разумеется, не предусмотрен, за ненадобностью, так как там направление выбирать не приходится.
Ну как же не предусмотрен - это же обычная производная, которая показывает в какую сторону нужно двигаться (вправо или влево), чтобы приближаться к точке минимума.
По поводу произвольной формы оптимизируемой функции в многомерном случае - Вы заблуждаетесь. Основной математический аппарат там разработан так же только для унимодальных функций.
Ммм...То, что я видел, там из унимодальных в явном виде выступают только выпуклые функции (соответственно, речь про выпуклое программирование). Все остальные, вроде, работают с полимодальными, рассчитывая на поиск локального экстремума.