expВозьмите книгу в ней всё хорошо описаны основы.
Лидовский В.В., Теория информации
Правда конкретно ваш вопрос не рассмотрен.
Когда мы говорим про количество информации, то мы говорим про канал передачи информации или о методе хранения информации.
Информацию мы можем кодировать различными способами.
По поводу Хартли почитай его работы.
http://www.dotrose.com/etext/90_Miscell ... _1928b.pdfВо первых он говорит что термин информация очень широк.
Он говорил о телеграфе. Привел свою формулу он для сравнения информации в системах с различными наборами алфавитов.
А уже потом спустя 20 лет появился Шеннон. Который посмотрел на информацию и сказал что если часть символов выпадает чаще то её можно сжимать.
http://cm.bell-labs.com/cm/ms/what/shan ... on1948.pdfЦитата:
Тогда если один символ имеет вес 5 бит V=4*5=20 и I=4*5=20. Y=1
Я ничего не понял
Потому что вы задачу не правильно сформулировали.
Допустим рассматриваем канал с шумом который вызывает ошибки. Ошибки случайны но известно что расстояние между ошибками равно 5 бит.
Тогда самый простой способ кодирования информации это удвоения символов.
К примеру передаем сообщение "мама" алфавит 32 символа.
кодируем "ммааммаа"
Чтобы сравнить информацию используем теорему Хартли.
- информативность.
Возьмем канал без ошибок.
кодируется один к одному
"мама"
информативность канала будет 1.
Что же сказал Шенон. Шенон посмотрел и заметил что в Английском языке(справедливо и для других) одни буквы выпадают чаще других. Подумал и пришел к выводу что это сообщен "мама" можно сжать.
Если у нас на один символ приходится
бит.
К примеру вероятность выпадания p('а')=0.7, а все остальные символы имеют вероятность 0.3/31=0.0096774...
Тогда Шенон ввел новую меру информации как энтропию.
Для слова "мама" H("мама")=-(0.0096774*log2(0.0096774)+0.7*log2(0.7)+0.0096774*log2(0.0096774)+0.7*log2(0.7)
)=0.849908
информативность
Что это значит? Это значит что мы закодировали не самым оптимальным случаем. Можем закодировать информацию так что оно займет 0.849908 бит в идеальном случае по Шенону.