Этот вопрос я постоянно задавал, но вы его не поняв начали изобличать.
Поскольку вы как детё пяти лет что нахваталось всяких слов перехожу на язык "яблоков и грибочков".
Скажем, У нас есть 20 знаков (двадцать разноцветных яблочек) собранных в кучки по количеству равным основанию системы счисления (по цветам), и кучки не содержат одинаковых цифр (все цвета в кучке разные).
Сколько всего можно записать разных чисел используя по одной цифре из каждой кучки?
Если у нас десятичная система счисления, то у нас есть две кучки по десять цифр 0123456789,0123456789. И получается всего 100 разных чисел мы можем записать.
Для двоичной сичтемы у нас есть десять кучек по две цифры 01,01,01,01,01,01,01,01,01,01. И получается 2^10=1024 разных числа. То есть больше чем в десятичной.
В троичной унас есть семь кучек по три цифры, но последняя не полная кучка 012,012,012,012,012,012,01. И мы можем записать 2*3^6=1458 разных чисел. Это больше чем в двоичной систме счисления!
Для четверичной есть пять кучек по четыре цифры 0123,0123,0123,0123,0123. И получается 4^5=1024 разных числа. То есть чтолько же как и в двоичной.
Для унарной (одноичной) системы счисления у нс есть двадцать кучек по одному элементу 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1. И получается 20 чисел, поскольку в этой системе разрешается не брать из некотрых кучек.
Если вы и это не поняли то вам меньше пяти лет, и вы конечно гений, потому-что никому из более старшего возраста это не надо было объяснять поскольку это ну уж элементарней некуда.
-------------------------------------------------------------
Модератор, вот посмотри эти перлы которыми этот незнайка общается со знающими образованными людьми
Для особо тупых, объясняю по слогам:
Судя по вашему комменту - вы сами ничего не поняли
когда люди сами чего-то не понимают, т
потому-что не разобрались или чего-то не понимаете) , а раз так то не надо тут плодить тексты
и тд.
Отсюдо видно что он первый перешел на личности.
Добавлено спустя 10 минут 40 секунд:Откуда тогда взялось вот это ?
Ну и как вы читаете? Написанно же что инфармационная энтропия равна

,то и есть просто сумма

, а плотность это производная по n - поэтому он и исчезает.
А иформация мерится не только в битах, но и в натах, и вообще основание логарифма может быть любое, его значение никак не определенно в определении энтропии
То что часто используются биты так это и есть привязка к системе счисления используемой в компьютерах и в линиях связи.
И вообще учиться по википедии я вам крайне не рекомендую, википедия есть справочник в которой некотрые материалы далеко не полны, она полезна для справочного материала уже знающих людей, как дополнение к регулярному учебнику.