На экзамене, конечно, следует говорить, что формула Хартли - частный случай, иначе схлопочете неуд.
А вообще, самым загадочным является число
![$N$ $N$](https://dxdy-04.korotkov.co.uk/f/f/9/c/f9c4988898e7f532b9f826a75014ed3c82.png)
, а не вероятность
![$p_i$ $p_i$](https://dxdy-01.korotkov.co.uk/f/0/d/1/0d19b0a4827a28ecffa01dfedf5f5f2c82.png)
. Вероятность
![$p_i$ $p_i$](https://dxdy-01.korotkov.co.uk/f/0/d/1/0d19b0a4827a28ecffa01dfedf5f5f2c82.png)
- это вполне конкретная вероятность. Если Вы под
![$N$ $N$](https://dxdy-04.korotkov.co.uk/f/f/9/c/f9c4988898e7f532b9f826a75014ed3c82.png)
понимаете нечто в узком смысле - число букв в алфавите, например, то да, формула Хартли становится настолько частным случаем, что ужасно подумать.
Фактически же
![$N$ $N$](https://dxdy-04.korotkov.co.uk/f/f/9/c/f9c4988898e7f532b9f826a75014ed3c82.png)
- это число комбинаций, а комбинаций чего - это специально не оговаривается, и это правильный подход. Смотря какую информацию хотите измерить, то число и подставляется. Не надо ограничиваться размером алфавита! И в этом случае формула Хартли становится более универсальной, чем формула Шеннона. Вот такие вот делишки творятся.
Рассмотрите частный случай
![$N = \frac{M!}{N_1!N_2!...N_M!}$ $N = \frac{M!}{N_1!N_2!...N_M!}$](https://dxdy-01.korotkov.co.uk/f/c/3/1/c3148b4aaf6cd874c7d0da3342c2272582.png)
- это число перестановок букв алфавита размером
![$M$ $M$](https://dxdy-04.korotkov.co.uk/f/f/b/9/fb97d38bcc19230b0acd442e17db879c82.png)
с повторениями.
Для перехода к формуле Шеннона нужно применить формулу Стирлинга-Муавра и определение частоты символа
![$p_i \approx f_i = \frac{N_i}{M}$ $p_i \approx f_i = \frac{N_i}{M}$](https://dxdy-03.korotkov.co.uk/f/e/0/2/e028a5eceefd55a45845bcd56840e9c682.png)
Данный факт широко известен. Можете подсмотреть в классической книге Л. Бриллюэна "Наука и теория информации", перевод А.А. Харкевича 1960, страница 24.
Этот факт редко попадает в современные перепечатки классических трудов, и он до сих пор не понят.
![:lol: :lol:](./images/smilies/icon_lol.gif)