Пусть оцениваемый параметр

может принимать дискретные значения

с одинаковой вероятностью

. Оценка параметра ведётся по результатам наблюдения непрерывных случайных велчин

.
Очевидным является следующее правило оценивания: в качестве значения параметра принимается такое, которому соответствует наибольшая вероятность при условии, что наблюдается некоторая совокупность значений

. (последняя запись означает, что случайные величины

приняли бесконечно близкие значения к

), то есть
если



то принимется решение о том, что

. Фактически оценка производится по наиболее вероятному значению параметра при условии наблюдения данной выборки. Тут мы как бы говорим, что скорее всего параметр имеет значение

. Однако определить вероятности, входящие в правило принятия решения чаще всего оказывается затруднительно. С учётом теоремы о произведении событий выполним следующие преобразования:

Полученное выражение подставим в систему неравенств, которая определяет принятие решения и, с учётом равновероятности значений

, получим:
если

то принимается решение

. Поделив обе части неравенств на

, перейдём к условным плотностям вероятностей:
если

то принимается решение

, то есть выбирается такое значение параметра, которое соответствует максимуму функции

, которая и называется функцией правдоподобия - это совместная плотность распределения вероятностей величин

при условии, что оцениваемый параметр принял известное значение. Фактически в качестве оценки принимается такое значение параметра, которое при его фиксации соответствует максимальной вероятности наблюдать набор значений

.