Не имеет значения, откуда берётся распределение, из стат. оценок или из какой-то теории.
Да, ладно. Вы же совсем недавно утверждали, что распределение (которое в формулу Шеннона подставляется) нужно
знать.
Вот мы знаем, что монета падает равновероятно орлом или решкой. Откуда? Кто-то скажет, что в его жизненном опыте лежит богатая статистика бросания подобных монет, а кому-то достаточно и соображений симметричности. Без разницы.
Оно и есть информация о предметной области.
Это просто информация, а не "о предметной области". Всякие разные статистики и оценки частотных распределений ничего не говорят о предметной области.
Не путайте статистики и частоты, которыми они оперируют, с вероятностями. Знание о том, что монета выпадает орлом или решкой равновероятно и независимо от результатов других бросков (откуда бы оно ни взялось), и является иформацией о предметной области, коей является процесс падения монеты.
Вообще-то большинство файлов любой нормальный архиватор расширяет. Удивлены? Освежите свои знания об архиваторах.
Вообще-то в моей фразе подразумевалось, что архиватор обработает любой файл, и выдаст какой-то архив. А не вывалится с ошибкой "Кто вы такие, я вас не знаю". Сожалею, что неточность формулировки привела к неверному пониманию.
Ежели архиватор увеличит размер, то что? То у нас будет две оценки сверху, возьмем более строгую, делов-то.
Вообще-то я и не говорил о вываливаниях с ошибкой. Говоря об оценках количества информации с помощью архиватора, Вы привязываетесь к особенностям алгоритма архивации. Ваш опыт общения с полудюжиной известных Вам архиваторов говорит Вам, что они сжимают "примерно одинаково". Но на самом деле это только потому что они предназначены для сжимания примерно одного и того же. Алгоритм может быть такой, что неожиданно плохо сжимает какой-нибудь художественный текст, но зато неожиданно хорошо сжимает какие-нибудь совершенно непонятные Вам кракозябры. И это тоже будет архиватор.
А то, что это бессмысленные результаты.
Тут игра словами. Результаты бессмысленные в том смысле, что никаких смыслов мы и не измеряли.
А измеряли количество информации, а не смыслы.
Ежели статметодами (включая криптографию) удалось взломать, то есть определить хэш функцию и подсолку, то да, поток можем сильно ужать и информации там окажется сильно меньше, чем "прямым" применением формулы Шеннона. А ежели не удалось, то мечтать не вредно, а ширину канала для передачи этого потока нужно готовить по формуле Шеннона и теореме Котельникова
Ещё раз: Никакими известными статметодами Вы не взломаете хеш-функцию, если просто не будете её знать. И это знание - ни что иное, как информация о предметной области. Вы ошибочно полагаете, будто тупые подсчёты каких-то частот, которые Вам может предложить статистика, принесут Вам некое "объективное" знание о сообщении. А вот ничего подобного. То, что Вы получите от сообщения, определяется Вашим знанием или незнанием некоего "шифра" - априорной вероятностной модели предметной области. Вот об этом, в частности, и формула Шеннона.
В подсчётах же частот примерно столько же смысла, сколько в том, чтобы поделить выраженную целым числом дату Вашего рождения на число пи, отбросить целую часть и результат посчитать за ту вероятность, которую мы должны подставить в формулу Шеннона.
А попробуйте проделать это с ChatGPT. Я полагаю, что по первому же абзацу он Вам предскажет весь остальной текст.
А откуда ChatGPT узнает, что я передаю "Войну и мир"? А не что-то другое, где первый абзац "Войны и мира" используется как эпиграф.
Я просто предложил Вам эксперимент. Вы же хотели какими-то "статметодами" предсказать появление следующих символов по предыдущим? Это то самое, что и делают большие языковые модели. Вот и проверьте. А уж "откуда он узнает, что дальше первого абзаца Вы не решили передавать что-то другое" - это вопрос не ко мне.
Концепт информации, как он вводится в Теории информации тем и прекрасен, что никаких размышлений о смыслах, знаниях и субъектах не требует.
Теория информации просто даёт
количественную оценку на основании тех знаний о предметной области, которую несут заданные распределения вероятностей. Какой в этом "концепт", я не знаю.
Точно так же, если Вы нашли достаточно длинный текст клинописью (которую не понимаете), но косвенные признаки позволяют Вам предположить что это - Эпос о Гильгамеше
, то глупо "статметодами" заниматься подсчётом частот отдельных символов и корреляций между ними, нужно сразу искать соответствующие слова на соответствующих местах, чтобы расшифровать эту клинопись.
Оценки "глупо или не глупо" - тут смысла не имеют. Ибо этот пример совершенно про другое, а именно про получение знаний и-или смыслов из текста клинописью. А это не является предметом Теории информации
Этот пример всё про то же: Что получаемая приёмником с сообщением информация (в том числе, её количество) зависит от априорной вероятностной модели предметной области, которую он имел.
Статметоды ничего подобного не покажут. Если они основаны на неверных априорных предположениях, то просто тупо дадут неверные оценки, о чём Вы даже не узнаете.
Тут ерунда написана.
Не нужно Ваши "априорные предположения" считать абсолютным знанием, то есть приписывать им априорную вероятность равную единице или нулю.
А если этого не делать, то статметоды "всё покажут". Понятно, что на достаточно большой выборке.
Я не понимаю, о чём Вы пишете. Какие априорные вероятности должны быть "равны единице или нулю"? Ещё раз: Чтобы статметоды показали хоть что-то осмысленное, должны выполняться куча априорных допущений, первейшее из которых - эргодичность хоть чего-нибудь.
Вот ещё один пример: Имеем некий случайный процесс, в котором среднее значение некой величины линейно нарастает со временем, при этом в каждый момент возможны случайные отклонения этой величины от среднего значения по нормальному закону с некоей фиксированной дисперсией. Можете ли Вы статметодами, т.е. имея только одну последовательность реализаций значений этой случайной величины, найти её среднее значение? Какие дополнительные допущения при этом потребуются?