Одно из определений энтропии - это логарифм числа

микросостояний

, реализующих данное макросостояние

.
Т.е. мы должны считать, что некоторое макросостояние

системы может быть реализовано любым из множества

микросостояний

. Тогда можно определить энтропию

состояния

, как

(с точностью до множителя). Т.е. энтропия - это мера того, насколько состояние

поливариантно.
Это определение верно, если все

равновероятны. Ясно, что вероятность любого

тогда равна

, т.е.

и тогда

Но для неравновероятных

, для которых для каждого

соответствует своя вероятность

, предлагается считать некоторое эффективное количество состояний

по формуле:

Например
тутЭта формула ведет к формуле Шеннона для информационной энтропии. И если

, то эта формула совпадает с предыдущей.
Я не могут понять, как получена эта формула для

? На каких-то дискретных примерах это ведь можно показать?