По-разному можно отвечать на Ваш вопрос. Ну например так можно.
Математическое ожидание

можно интерпретировать как центр масс тела, в котором распределение масс определяется функцией распределения

. С другой стороны, математическое ожидание есть решение оптимизационной задачи

для случайной величины

с конечным вторым моментом. Тем самым, математическое ожидание минимизирует среднеквадратическое отклонение от случайной величины. На этом наблюдении основано понятие условного математического ожидания (у.м.о.) относительно сигма-алгебры. А именно, функция исходов

называется у.м.о. относительно сигма-алгебры

, если она минимизирует среднеквадратическое отклонение от случайной величины

на множестве

-измеримых функций; такую величину обозначают обычно

. Легко показать, что операция у.м.о. есть ортопроектор на пространство

. Значения у.м.о.

(для какой-либо случайной величины

) называются еще в литературе регрессией. В случаях, когда ищется у.м.о. компонент нормального вектора относительно сигмы-алгебры, порожденной другими компонентами этого вектора, то оказывается, что у.м.о. есть линейная функция от случайных величин из условия, т.е.

Поэтому задача поиска у.м.о. компоненты нормального случайного вектора относительно других компонент того же вектора по сути представляет собой задачу поиска коэффициентов

,

так, чтобы

А это можно интепретировать как применение метода наименьших квадратов для того, чтобы аппроксимировать

величинами

, ...,

.
Не знаю, что такое дюрация, но недолгий поиск в гугле подсказывает, что в каких-то финансовых моделях эта величина является одним из коэффициентов в задачах регрессии. Так что связь между всеми Вашими понятиями есть, но... что она может дать? :)
Может быть при изучении понятия дюрации Вы столкнулись с кучей терминов и интересуетесь связью между ними? Может быть так просто случайно оказалось, что этот термин требует понимания разделов теорвера, мат. статистики и финансовой математики, а какое-то глубокое понимание связей между всеми ними не столь важно?