Добрый день, есть задача по информационной мере Шеннона:
Определить энтропию источника информации
, передающего сообщения
Вероятность сообщений :
;
Известно, что в сообщении источника 100 символов. Определить, сколько символов потребуется для передачи этой информации при использовании безызбыточного алфавита той же размерности.
По формуле Шеннона нашел количество информации по данным в условии вероятностям, затем нашел кол-во информации для безизбыточного алфавита(т.е при котором
) , но дальше не могу понять как связать условие о кол-ве символов и полученное по формуле кол-во информации ?