Я давно прочёл и эту книгу и прочие , связанные со системами счисления.
Вы сами не можете ответить на вопрос (потому-что не разобрались или чего-то не понимаете) , а раз так то не надо тут плодить тексты , не содержащие в себе полезной информации.
К тому-же форум предназначен для дискуссий, а не обмена репликами типа: "Я крутой - ты не крутой"
Если не знаете - то лучше молчите, а то вам видимо хочется показать себя очень знающим, но вы не способны эти знания продемонстрировать , видимо этим и объясняется раздражение.
Вы к стати и сами не читали, что там у Фомина.
А написано там следующее:
Цитата:
Для оценки пригодности той или иной системы счисления в качестве основы для конструирования вычислительной машины имеет значение, кроме простоты осуществления арифметических операций в ней, также и то, что обычно называют экономичностью системы. Под этим понимается тот запас чисел, которые можно записать в данной системе с помощью определённого количества знаков
Т.е. в книге повторяется всё то-же заблуждение, что я уже упоминал выше - что мол в каждом разряде "запасено" x чисел.
Причём никакого обоснования/доказательства данного тезиса не приводиться.
Эта "экономичность" - прямая наследница типографской экономичности - когда для набора текста в типографии имело значение количество знаков, которые могут понадобиться для набора одного знака в строчке.
Естественно языки с меньшим количеством букв в алфавите представлялись издателям более "экономичными".
Вот эта типографская экономичность и досталась нам в качестве обоснования экономичности систем счисления.
На самом деле, никакого отношения количество знаков к информационной экономичности не имеет.
Количество информации можно сравнить с количеством энергии - у них есть общие свойства.
В частности теплоёмкость идеального газа пропорциональна количеству степеней свободы по которым может двигаться частица.
А ёмкость информации должна также выражатся в количестве независимых степеней свободы в пределах которых число может принимать произвольные значения.
Какие же степени свободы могут быть у числа?
А на какие минимальные независимые части можно разбить число?
Например, числа от 0 до 7 можно представить при помощи 3х независимо задаваемых бита - именно биты и есть те минимальные степени свободы, задающие количество информации в числе.
Сами "знаки" - нельзя назвать "независимыми степенями свободы" числа - они не являются независимыми один от другого , т.е. если задано например значение числа = 7 - то у него уже не может быть одновременно задано иное значение, а вот если первый бит числа установлен в 1, то остальные два бита ещё могут принять любое значение.
Следовательно ёмкость информации есть произведение количества знаков на двоичный логарифм основания (а вовсе не на само основание).
Но тогда вместо n/x надо использовать n/log2(x) и выражение y(x) = x^(n/log2(x)) превращается в 2^n и оно не зависит от x.
Вывод: все системы счисления одинаково экономичны.