Не могу понять противоречия. Наш БГУИРовский конспект лекций говорит о следующих свойствах этропии.

Самое интересное свойство выделено красным.
А теперь задача и мои мысли.
Определить зависимость энтропии двоичного источника сигналов U1 и U2 если вероятность появления сигнала U1 может изменяться от нуля до максимума с шагом 
P=1/3
Мои мысли:
В задаче скорее всего требуется определить энтропию дискретного источника информации, а она в свою очередь определяется формулой Шеннона

Если вероятность появления сигнала U1 изменяется как 0;1/3;2/3;3/3 то вероятность
появления сигнала U2 соответственно изменяется как 1-0;1-1/3;1-2/3;1-3/3
В результате при подстановке в формулу Шеннона и прорисовки графика- получаем прямую линию энтропии.
Т.к. приращение в одном члене суммы вызывает убываение в другом.
Непонятен смысл свойства, которое выделено красным. Или о какой энтропии идет речь(выделение красным) ?