Информативность (количество информации) распределения вероятности непрерывной величиныВ учебниках по теории информации принято рассматривать распределение вероятности
неограниченной непрерывной величины. Это неправильный подход, который приводит лишь к понятию дифференциальной энтропии, которое является искусственным. Дифференциальная энтропия не является энтропией распределения вероятности непрерывной величины.
Непрерывная величина должна быть ограничена, иначе априорная и апостериорная энтропии, а также количество информации будут равны бесконечности. Рассмотрим случайную величину
на отрезке
.
Используем меру Шеннона для дискретной случайной величины
Разобьем отрезок
на малые отрезки
, где
. Тогда
, где
- распределение плотности вероятности величины
.
,
где по условию нормировки
.
Компоненту
при неограниченном
называют дифференциальной энтропией.
Вернемся к ограниченной величине
и рассмотрим количество информации, а не энтропию
Полученное выражение является
количеством информации распределения непрерывной величины. Можно рассчитать количество информации для различных законов распределений
, но только не для нормального, экспоненциального и др., т.к. в этих случаях величина не является ограниченной.
Практически можно выбрать такие значения
и
, при которых вероятности
и
будут практически равны нулю. Данный факт можно считать
вероятностной ограниченностью величины
, при таких значениях
интеграл
также практически равен нулю.