Добрый день, есть задача по информационной мере Шеннона:
Определить энтропию источника информации

, передающего сообщения

Вероятность сообщений :

;
Известно, что в сообщении источника 100 символов. Определить, сколько символов потребуется для передачи этой информации при использовании безызбыточного алфавита той же размерности.
По формуле Шеннона нашел количество информации по данным в условии вероятностям, затем нашел кол-во информации для безизбыточного алфавита(т.е при котором

) , но дальше не могу понять как связать условие о кол-ве символов и полученное по формуле кол-во информации ?