Цитата:
Все другие определения и формулы неправильны.
И ларин пророк того.
Во-первых, откуда вы взяли такое деление на сведения и информацию? Вот из словаря:
сведения. Не согласны? Приведите ссылку на источник, если конечно это не плод альтернативно одаренного мышления... Хотя в вашей "статье" ссылки нет ни одной. Показательно...
Во-вторых, не информация, а количество информации, причём только по формуле Шеннона в классическом виде имеет размерность бит. Есть логарифмы и с другими основаниями (в информатике использовались логарифмы с основанием 3 и e). Кроме того, иногда проводят некоторую операцию дабы избавиться от размерности:
.
В-третьих, можете и не знать Стугрена и Радулеску, речь не о том. А речь о том, что энтропия и информация понятия противоположные (читайте Н. Винера). Могу для особо плохо соображающих и цитату дать из "Кибернетики".
В-четвертых, зачем в одной формуле собирать формулу Шеннона и формулу Хартли? Обе эти меры нужны для определения количества информации, причём одна явлется частным случаем другой. Не знали об этом? Почему не упомянули Хартли? Это его формула. Какой дурак вас теории информации обучил?