Случайность и вероятность совершенно разные вещи.
Вероятность можно вычислить для чего угодно. Это чисто вычислительная величина.
А случайность это утверждение, требующая доказательств и проверки.
AD говорил, что это ближе к философии. Это однако скорее психология,
Это и не философия и не психология.
Все строго математическое. Задача корректная абсолютно.
Это
СИММЕТРИЯ! Надеюсь слышали о такой?
На этом цельная наука построенна - теория групп.
Так вот (обобщенный) коэффициент корреляции и есть мера симметричности. Там где (абсолютный) коэффициент корреляции (почти) равен единице, там и есть симметрии.
Вот эти симметрии мы и видим.
(чем энтропия вытащенная за уши из машины тюринга лучше корреляции? вопрос к Pi наверное)
Я сказал что энтропия не причем, она вообще не адекватна. Энтропия это СРЕДНЕЕ количество информации. Мы же здесь видим частности, а не среднее. Только корреляции показывают меры подобия.
Чтоб понять почему энтропия здесь не адекватна, задайтесь вопросом какова пропускная способность канала должна быть чтоб послать эти последовательности. Она будет одна и таже, потому-что по условию задачи вероятность появлени каждого символа все равно 1/2.