Вот выдержка из одного учебника
В совр теории вероятностей есть 2 подхода к тому, что называть случайностью
В
частотном подходе предполагается, что
случайность есть объективная неопределенность В жизни «объективная неопределенность практич не встречается. Чуть ли не единственным примером может служить радиоактивный распад В
байесовском подходе предполагается, что
случайность есть мера нашего незнания Все величины и параметры считаются случайными. В качестве оценок неизвестных параметров выступают апостериорные распределения .
Формула Байеса позволяет рассчитать изменение степени истинности A с учетом информации о B.Байесовский вывод можно рассматривать как обобщение классической булевой логики. Только вме-
сто понятий «истина» и «ложь» вводится «истина с вероятностью p»Сравним это с т.н. статистическим или количественным подходом в теории информации, информатике
Статистический метод – оценка производится с точки зрения меры неопределенности, снимаемой при получении информации, но при этом не рассматривается ее смысл. Основное внимание уделяется распределению вероятности различных исходов ожидаемых событий. Мера информации определяется ф-лой Шеннона
прямо указывающей связь между изменением количеством информации и результатами испытаний.
Если последовательно проводить эту линию не окажется ли что байесовский подход в теории вероятностей и мат.статистике есть раздел количественного подхода теории информации, т.е. информатики?