Прошло 5 лет и опять возвращаюсь к обсуждению понятия семантической и других видов информации.
см 
http://dxdy.ru/topic56653.htmlНу не знаю. Как-то неудачно преподают ее что-ли. Во всех практически учебниках информатики в разделе семантической информации грубо говоря излагается 3 факта
1)семантическая информация связана с тезаурусом человека или ЭС.т.е. она индивидуальна по отношению к потребителю
2)приводится стандартный качественный (без попыток каких то- конкретных примеров аналитического описания
 график зависимости количества  семантической информации Ic от тезауруса пользователя Sp
(при этом каких-то попыток оценить количественно этот самый тезаурус пользователя не делается)
3)вводят Относительную меру количества семантической информации - коэф-т содержательности C,
 определяя его  как отношение количества семантической информации к ее объему: 

------------------------------------------------------------------------------------------------------------
Не говоря уже о том что при таких расплывчатых определениях ни мне уже около 10 лет пытающегося учиться и преподавать информатику ни другим невозможно понять точное определение этого, ни тем более закрепить его на примерах. (т к примеров расчета столь полезных для закрепления понятий в других областях наук просто не существует).
Привожу мнение модератора форума PAV,которого уважаю и доверяю.
http://dxdy.ru/topic56653.html"Лично я считаю данную тему бессодержательной и неинтересной.имеется система целей или задач, которые стоят перед объектом. Имеются вероятности достижения этих целей. Все, что повышает эти вероятности - это польза. Ее можно теоретически измерить..."----------------------------------------------------------------------------------------------------------------------
Лично мне не совсем понятно еще и полная система классификации видов информации принятая в теории информациию
обычнно кратко-говорится о 3 подходах (в абзаце ниже я считаю синонимами термины Структурный (объемный) и Статистический(Энтропийный) подходы
1)Структурный (объемный) - рассм дискретное строение массивов информации и их измерение простым подсч информац элем.   Объем данных 

 в сообщении измеряют колич символов (разрядов) в этом сообщ
2)Статистическое  направление( Энтропийный подход)  -оперирует понятием энтропии как меры неопределенности, 
    учитывает вероятнность появл тех или иных сообщений.
3)Семантическое направление- учитывает целесообразность, ценность или существенность информации
4)прагматический подход в основе -полезность для достижения некоторой цели
 видимо в нем предлагаются   меры ценности (целесообразности) А. А. Харкевича 

 (где 

 -апостериорная и априорная (до сообщения) вероятности достижения цели.  Так же подходы Карнапа, Вилькенштейна и др. см Википедию
 [url]http://ru.wikipedia.org/wiki/Ценность_информации[/url]
---------------------------------------------------------------------
в отдельных случаях говорят еще об т.н. 
"алгоритмическом подходе"  идущем может быть от Колмогорова.
Там хоть какая-то точность определений есть:  
"Любому сообщению можно приписать количественную характ-ку, отражающую сложность (размер) программы,  ее воспроизводящей. конкретной ЭВМ, например, машиной Тьюринга. Сложность слова (сообщения) определяют  как мин число внутренних состояний машины Тьюринга, требуемых для его воспроизведения.". 
ОК, я не возражаю, только дайте простые примеры расчета понятные мне и школьникам.
--------------------------------------------------------------------------------------------------------------------
вопрос1) энтропийный подход Объясните мне, чайнику. В основе энтропийного подхода лежит определение относительной информации как разности 
априорной и апостериорной энтропий  

т.е некот функции определяемой через вероятности. Но само понятие вероятность можно применять в разных аспектах -если вероятность появления буквы в сообщении - это алфавитный подход относящийся в классификации выше к 1) А может быть эта же самая вероятность быть применена в семантике, например в результате сообщения мы отбросили одну из нескольких гипотез о структуре объекта (уж как хотите можно считать гипотезы равновероятными или нет - это фокусы). Тогда  понятие относительной информации
явно семантические. Др словами, энтропийный (вероятн-статистич) метод -не есть  самостоят область а может применяться как при количественном так и семантическом подходах?
вопрос 2)Алгоритмический подход. а)приведите примеры расчета
б)как быть если некот модели допускают несколько алгоритмов решения. Напр численные методы решения уравнений?
(в старом посте отмечал в МГУ - каф логики и теории алгоритмов" т.е. др.словами пересечение теории алгоритмов и логики в информатике  видимо и есть этот самый "Алгоритмический подход" в теории информации?)
вопрос 3)   Измерение информации и распознавание образовраспознавание образов считается частью искусственного интеллекта.
Только как все таки оценивать количество информации полученное в результате распознавания скажем текста? 
Если распознается заведомо текст на конкр языке  то не важно какой он печатный или рукописный  но информационный вес букв  в рамках алфавитного подхода одинаков. Никому нет дела до реальной сложности программ распознавания. Имеет значение лишь вероятности  ошибочного распознавания
Опять таки, приведите пример оценки информации при решении какой-нибудь задачи распознавания