2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 о связи теории информации и определений вероятности
Сообщение07.03.2012, 23:10 
В своей теме http://dxdy.ru/topic53801
я обращал внимание что в школьном преподавании основ теории инфомации часто "зажимают" формулу Шеннона, $I=\sum p_ilog(p_i)$
ограничиваясь формулой Хартли $2^i=N$
Я усматриваю здесь связь с исторически сложившимися разными попытками определения вроятности:
Есть т.н. классическое "отношение числа благоприятствующих случаев к их общему числу
$p=\frac{k}{n}$ при предположениях о равновозможности исходов (в информатике -одинаковая вероятность появления символов сообщения)
и т.н. статистическое. Получаются когда в информатике исследуются сообщения, т.е статистическим путем определяется например частоты появления букв в нем ,при этом эти частоты как правило получаются разными то может работать лишь ф-ла Шеннона.
По моему 2-й подход естественен, а 1-й подход (предположение о равновозможности) неадекватен действительности (притянут за уши)

 
 
 [ 1 сообщение ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group