Прошло 5 лет и опять возвращаюсь к обсуждению понятия семантической и других видов информации.
см
http://dxdy.ru/topic56653.htmlНу не знаю. Как-то неудачно преподают ее что-ли. Во всех практически учебниках информатики в разделе семантической информации грубо говоря излагается 3 факта
1)семантическая информация связана с тезаурусом человека или ЭС.т.е. она индивидуальна по отношению к потребителю
2)приводится стандартный качественный (без попыток каких то- конкретных примеров аналитического описания
график зависимости количества семантической информации Ic от тезауруса пользователя Sp
(при этом каких-то попыток оценить количественно этот самый тезаурус пользователя не делается)
3)вводят Относительную меру количества семантической информации - коэф-т содержательности C,
определяя его как отношение количества семантической информации к ее объему:
------------------------------------------------------------------------------------------------------------
Не говоря уже о том что при таких расплывчатых определениях ни мне уже около 10 лет пытающегося учиться и преподавать информатику ни другим невозможно понять точное определение этого, ни тем более закрепить его на примерах. (т к примеров расчета столь полезных для закрепления понятий в других областях наук просто не существует).
Привожу мнение модератора форума PAV,которого уважаю и доверяю.
http://dxdy.ru/topic56653.html"Лично я считаю данную тему бессодержательной и неинтересной.имеется система целей или задач, которые стоят перед объектом. Имеются вероятности достижения этих целей. Все, что повышает эти вероятности - это польза. Ее можно теоретически измерить..."----------------------------------------------------------------------------------------------------------------------
Лично мне не совсем понятно еще и полная система классификации видов информации принятая в теории информациию
обычнно кратко-говорится о 3 подходах (в абзаце ниже я считаю синонимами термины Структурный (объемный) и Статистический(Энтропийный) подходы
1)Структурный (объемный) - рассм дискретное строение массивов информации и их измерение простым подсч информац элем. Объем данных
в сообщении измеряют колич символов (разрядов) в этом сообщ
2)Статистическое направление( Энтропийный подход) -оперирует понятием энтропии как меры неопределенности,
учитывает вероятнность появл тех или иных сообщений.
3)Семантическое направление- учитывает целесообразность, ценность или существенность информации
4)прагматический подход в основе -полезность для достижения некоторой цели
видимо в нем предлагаются меры ценности (целесообразности) А. А. Харкевича
(где
-апостериорная и априорная (до сообщения) вероятности достижения цели. Так же подходы Карнапа, Вилькенштейна и др. см Википедию
[url]http://ru.wikipedia.org/wiki/Ценность_информации[/url]
---------------------------------------------------------------------
в отдельных случаях говорят еще об т.н.
"алгоритмическом подходе" идущем может быть от Колмогорова.
Там хоть какая-то точность определений есть:
"Любому сообщению можно приписать количественную характ-ку, отражающую сложность (размер) программы, ее воспроизводящей. конкретной ЭВМ, например, машиной Тьюринга. Сложность слова (сообщения) определяют как мин число внутренних состояний машины Тьюринга, требуемых для его воспроизведения.".
ОК, я не возражаю, только дайте простые примеры расчета понятные мне и школьникам.
--------------------------------------------------------------------------------------------------------------------
вопрос1) энтропийный подход Объясните мне, чайнику. В основе энтропийного подхода лежит определение относительной информации как разности
априорной и апостериорной энтропий
т.е некот функции определяемой через вероятности. Но само понятие вероятность можно применять в разных аспектах -если вероятность появления буквы в сообщении - это алфавитный подход относящийся в классификации выше к 1) А может быть эта же самая вероятность быть применена в семантике, например в результате сообщения мы отбросили одну из нескольких гипотез о структуре объекта (уж как хотите можно считать гипотезы равновероятными или нет - это фокусы). Тогда понятие относительной информации
явно семантические. Др словами, энтропийный (вероятн-статистич) метод -не есть самостоят область а может применяться как при количественном так и семантическом подходах?
вопрос 2)Алгоритмический подход. а)приведите примеры расчета
б)как быть если некот модели допускают несколько алгоритмов решения. Напр численные методы решения уравнений?
(в старом посте отмечал в МГУ - каф логики и теории алгоритмов" т.е. др.словами пересечение теории алгоритмов и логики в информатике видимо и есть этот самый "Алгоритмический подход" в теории информации?)
вопрос 3) Измерение информации и распознавание образовраспознавание образов считается частью искусственного интеллекта.
Только как все таки оценивать количество информации полученное в результате распознавания скажем текста?
Если распознается заведомо текст на конкр языке то не важно какой он печатный или рукописный но информационный вес букв в рамках алфавитного подхода одинаков. Никому нет дела до реальной сложности программ распознавания. Имеет значение лишь вероятности ошибочного распознавания
Опять таки, приведите пример оценки информации при решении какой-нибудь задачи распознавания