Pi писал(а):
Я сказал что энтропия не причем, она вообще не адекватна. Энтропия это СРЕДНЕЕ количество информации. Мы же здесь видим частности, а не среднее.
Чтоб понять почему энтропия здесь не адекватна, задайтесь вопросом какова пропускная способность канала должна быть чтоб послать эти последовательности. Она будет одна и таже, потому-что по условию задачи вероятность появлени каждого символа все равно 1/2.
Существует как минимум 3 подхода к определению энтропии
1) информационный (у вас)
2) то что у
worm2 3) статистический
Разумеется то о чем вы говорите не имеет отношения к делу.
ewert писал(а):
Проверяем гипотезу : каждый следующий результат не зависит от предыдущего…
Из этого ни в коем случае не будет следовать что данные 4 последовательности более вероятны чем остальные 2^50
Единственное что можно сделать так это отнести данные последовательности к какому либо классу.
Все множество исходов 2^50 разбивается на классы по какому либо признаку, поскольку вероятность каждого исхода одинаково, а количество элементов в классе может быть сильно разным, мы и получим разную вероятность для данных последовательностей.
Вопрос в том каким способом можно разбить все множество исходов на такие группы?
(Например можно взять максимальное число различных подпоследовательностей в последовательности длиной 50, после чего можно будет легко ввести понятие энтропии и посчитать вероятность для данных последовательностей.)
интуитивно мы именно так и поступаем (не раз здесь говорилось об этом)