expВозьмите книгу в ней всё хорошо описаны основы.
Лидовский В.В., Теория информации
Правда конкретно ваш вопрос не рассмотрен.
Когда мы говорим про количество информации, то мы говорим про канал передачи информации или о методе хранения информации.
Информацию мы можем кодировать различными способами.
По поводу Хартли почитай его работы.
http://www.dotrose.com/etext/90_Miscell ... _1928b.pdfВо первых он говорит что термин информация очень широк.
Он говорил о телеграфе. Привел свою формулу он для сравнения информации в системах с различными наборами алфавитов.
А уже потом спустя 20 лет появился Шеннон. Который посмотрел на информацию и сказал что если часть символов выпадает чаще то её можно сжимать.
http://cm.bell-labs.com/cm/ms/what/shan ... on1948.pdfЦитата:
Тогда если один символ имеет вес 5 бит V=4*5=20 и I=4*5=20. Y=1
Я ничего не понял
Потому что вы задачу не правильно сформулировали.
Допустим рассматриваем канал с шумом который вызывает ошибки. Ошибки случайны но известно что расстояние между ошибками равно 5 бит.
Тогда самый простой способ кодирования информации это удвоения символов.
К примеру передаем сообщение "мама" алфавит 32 символа.
кодируем "ммааммаа"
Чтобы сравнить информацию используем теорему Хартли.
![$4*Log_{2}{32}/8*Log_{2}{32}=0.5$ $4*Log_{2}{32}/8*Log_{2}{32}=0.5$](https://dxdy-04.korotkov.co.uk/f/f/4/e/f4e48cbf390e61fa11ea4e70f324142982.png)
- информативность.
Возьмем канал без ошибок.
кодируется один к одному
"мама"
информативность канала будет 1.
Что же сказал Шенон. Шенон посмотрел и заметил что в Английском языке(справедливо и для других) одни буквы выпадают чаще других. Подумал и пришел к выводу что это сообщен "мама" можно сжать.
Если у нас на один символ приходится
![$Log_{2}{32}=5$ $Log_{2}{32}=5$](https://dxdy-04.korotkov.co.uk/f/7/d/0/7d0aee7a39c4619c6178a3be0a85e3fc82.png)
бит.
К примеру вероятность выпадания p('а')=0.7, а все остальные символы имеют вероятность 0.3/31=0.0096774...
Тогда Шенон ввел новую меру информации как энтропию.
![$H(x)=-\sum_{i=1}^np(i)\log_2 p(i).$ $H(x)=-\sum_{i=1}^np(i)\log_2 p(i).$](https://dxdy-04.korotkov.co.uk/f/f/3/2/f325f27517fd68f75ddf17a8895c7c6182.png)
Для слова "мама" H("мама")=-(0.0096774*log2(0.0096774)+0.7*log2(0.7)+0.0096774*log2(0.0096774)+0.7*log2(0.7)
)=0.849908
информативность
![$H(x)/4*Log_{2}{32}=0.849908/20=0,0424954$ $H(x)/4*Log_{2}{32}=0.849908/20=0,0424954$](https://dxdy-03.korotkov.co.uk/f/6/c/8/6c895f073d3dcb7bc9de4861a14dadd382.png)
Что это значит? Это значит что мы закодировали не самым оптимальным случаем. Можем закодировать информацию так что оно займет 0.849908 бит в идеальном случае по Шенону.