Если задана случайная величина Y с известным (возможно, разным для разных наблюдений) математическим ожиданием M, то её можно представить, как
, где эпсилон есть случайная величина с нулевым матожиданием.
То есть построенное уравнение регрессии, ввиду обычных предположений о возмущении (случайное, с нулевым матожиданием, одинаково распределённые) нам даёт именно оценку матожидания.
Хотя исторически шли от повышения точности приближения (или, что то же самое, сокращения невязок), и лишь потом пришли к доказательству того, что МНК-оценка даёт несмещённые оценки для Y, ничего не мешает начать с требования несмещённости и получить тот же МНК. То есть Вы домогаетесь того, что уже даёт самая обыкновенная, не сказать - тривиальная, регрессия.
Тут, разумеется, может быть иная постановка - у Вас есть абсолютно точные значения матожиданий, и Вы хотите найти точную же функциональную зависимость. Но это уже не статистическая постановка, а вычислительная математика, то ли интерполяция, то ли просто угадывание зависимости. При этом, если значения мы принимаем точными, вероятностно-статистические соображения не нужны, только вычислительные. А если представленные значения матожиданий с ошибкой, и в полученном выражении может иметь место невязка, которую стоит минимизировать, то, значит, регрессия. И, скорее всего, МНК (возможно, взвешенный, если оценки МО неравноточные, например, если оценивались по разнообъёмным подвыборкам).
Можно ещё вспомнить полузабытую, но легко находимую, ну хоть у Гмурмана, эмпирическую регрессию, когда для отдельных значений регрессора (дискретного или дискретизованного разбиением области определения на интервалы) находили средние значения регрессанда, и вместо аналитического выражения давали таблицу наподобие: "Для внесения удобрений от 100 до 200 кг на га средний урожай 10 центнеров, от 200 до 300 13 центнеров, от 300 до 400 15 центнеров..."