Одно из определений энтропии - это логарифм числа
микросостояний
, реализующих данное макросостояние
.
Т.е. мы должны считать, что некоторое макросостояние
системы может быть реализовано любым из множества
микросостояний
. Тогда можно определить энтропию
состояния
, как
(с точностью до множителя). Т.е. энтропия - это мера того, насколько состояние
поливариантно.
Это определение верно, если все
равновероятны. Ясно, что вероятность любого
тогда равна
, т.е.
и тогда
Но для неравновероятных
, для которых для каждого
соответствует своя вероятность
, предлагается считать некоторое эффективное количество состояний
по формуле:
Например
тутЭта формула ведет к формуле Шеннона для информационной энтропии. И если
, то эта формула совпадает с предыдущей.
Я не могут понять, как получена эта формула для
? На каких-то дискретных примерах это ведь можно показать?