Меня терзают смутные сомнения по поводу того, как понимать оптимальность Хаффмана.
1. Например, пусть один символ встречается с вероятностью 1/4, а другой - с вероятностью 3/4. Энтропия равна
Но ведь код Хаффмана будет тратить на каждый символ по одному биту, и среднее число битов на символ будет равно 1?
2. Не относится ли оптимальность всех этих Шеннонов, Хаффманов и АК лишь к ситуации, когда каждый символ независим от предыдущих? Ведь если есть зависимость от контекста, то ясно, что PPM (rar, 7zip) или хотя бы BWT с последующим сжатием (bzip2) дадут существенно более короткий код.