2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


В этом разделе нельзя создавать новые темы.

Если Вы хотите задать новый вопрос, то не дописывайте его в существующую тему, а создайте новую в корневом разделе "Помогите решить/разобраться (М)".

Если Вы зададите новый вопрос в существующей теме, то в случае нарушения оформления или других правил форума Ваше сообщение и все ответы на него могут быть удалены без предупреждения.

Не ищите на этом форуме халяву, правила запрещают участникам публиковать готовые решения стандартных учебных задач. Автор вопроса обязан привести свои попытки решения и указать конкретные затруднения.

Обязательно просмотрите тему Правила данного раздела, иначе Ваша тема может быть удалена или перемещена в Карантин, а Вы так и не узнаете, почему.



Начать новую тему Ответить на тему
 
 Кол-во информации при изменении вероятности
Сообщение30.09.2006, 00:27 
Заслуженный участник
Аватара пользователя


16/03/06
406
Moscow
Теория информации говорит, что количество информации есть мера изменения информационной энтропии.

Информационная энтропия есть минус математическое ожидание от логарифма (двоичного) вероятности, то есть

$H = - \sum_i p_i log p_i$

Когда мы имеем систему в этом состоянии, а потом она переходит в определённое состояние, у которого энтропия равна 0, то мы, стало быть, получаем о системе количество информации, описываемое той же формулой.

Определённое состояние системы можно трактовать как состояние, в котором все вероятности равны 0 кроме одно, которая равна 1 и соответствует реализовавшемуся исходу.

Вопрос.

Допустим, у нас есть система из одного события, которое может реализоваться или не реализоваться. Допустим, первоначально вероятность реализации события равна $p_0$. Теперь, в результате исследования, нам стало известно, что вероятность не равна $p_0$, а равна некоему неизвестному числу, превышающему $p_1$. То есть, мы узнали, что событие реализуется не реже, чем с некоторой вероятностью.

Можно ли такое изменение в описании системы тоже трактовать как получение информации о ней и каков будет объём полученной информации?

 Профиль  
                  
 
 
Сообщение30.09.2006, 08:19 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
Не думаю. Так как вероятность после исследования неизвестна, а даны только ее границы, то и энтропия системы неизвестна со всеми вытекающими последствиями.

Обращаю внимание на то, что даже если бы после исследования мы бы узнали точную вероятность события, то ничего не мешает ей оказаться расположенной ближе к 0.5, чем исходная. Тогда получится, что в результате исследования энтропия увеличилась. Если трактовать это как уменьшение информации, то получается весьма неправдоподобный вывод. Так что на самом деле это не совсем так, как Вы понимаете.

 Профиль  
                  
 
 
Сообщение30.09.2006, 09:28 


28/07/06
206
Россия, Москва
Добречко!

Если позволите, то добавлю, исходя из опыта.

Когда начинаешь строить информационно-энтропийные оценки сложных систем, ситуаций, процессов, то есть, когда идеи и гипотезы выходят за рамки учебных задач, легко сделать ошибку, если оперировать абсолютными значениями энтропий и информации, или их разностями и суммами. На это ещё А.Н. Колмогоров и Р.Л. Стратонович указывали. Поэтому советую Вам, Dims, оперировать условными энтропией и информацией. В этом случае мухи от слонов отделяются, ибо начинают, в частности, разделяться априорная и апостериорная ситуации.

То, что приводите Вы, как раз и есть:
$p_0$ - априорное знание о системе, а $p_1$ - апостериорное.

Тогда получаем (У Вас одно событие с двумя исходами):

$H_0=-[p_{0}log\,p_{0}+(1-p_{0})log\,(1-p_{0})]$,

$H_1=-[p_{*}log\,p_{*}+(1-p_{*})log\,(1-p_{*})]$,

$I=H_{1}-H_{0}$.

Причём по Вашему условию: $p_{*}>p_{1}$, и $p_{*}$ - не фиксировано, тогда вопрос: а чему равна информация?

А теперь попробуйте самостоятельно всё это переписать для условных энтропии и информации.

 Профиль  
                  
 
 
Сообщение30.09.2006, 14:32 
Заслуженный участник
Аватара пользователя


16/03/06
406
Moscow
G^a писал(а):
А теперь попробуйте самостоятельно всё это переписать для условных энтропии и информации.

Что-то не представляю, как...

Добавлено спустя 4 минуты 58 секунд:

PAV писал(а):
даны только ее границы, то и энтропия системы неизвестна со всеми вытекающими последствиями.

Да.

Попробуем обобщить задачу: чему равна энтропия системы, если известна лишь граница на вероятность?

Или, ещё более общо: чему равна энтропия системы, если известно только, что это система из одного признака, который может реализоваться или нереализоваться, но вероятность этого неизвестна?

Нужно ли в этом случае считать, что вероятность равна 1/2 (вероятность встретить динозавра равна 50% для того, кто не знает, что они вымерли)?

Или следует ввести двухступенчатую модель: первая ступень -- это гипотеза о вероятности, а вторая сам исход измерения? Тогда для вычисления энтропии надо использовать условные понятия. Не об этом ли говорил G^a?

 Профиль  
                  
 
 
Сообщение30.09.2006, 14:47 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
Dims писал(а):
Попробуем обобщить задачу: чему равна энтропия системы, если известна лишь граница на вероятность?

Или, ещё более общо: чему равна энтропия системы, если известно только, что это система из одного признака, который может реализоваться или нереализоваться, но вероятность этого неизвестна?


Не определена.

 Профиль  
                  
 
 
Сообщение30.09.2006, 16:11 


28/07/06
206
Россия, Москва
Dims писал(а):
G^a писал(а):
А теперь попробуйте самостоятельно всё это переписать для условных энтропии и информации.

Что-то не представляю, как...


Книги по теориям вероятности и информации: Е.С. Вентцель, Р.Л. Стратонович, А.Н. Колмогоров.

Dims писал(а):
Попробуем обобщить задачу: чему равна энтропия системы, если известна лишь граница на вероятность?

Или, ещё более общо: чему равна энтропия системы, если известно только, что это система из одного признака, который может реализоваться или нереализоваться, но вероятность этого неизвестна?


Второе утверждение - на самом деле - менее общно, нежели утверждение первое, ибо в нём Вы накладываете ограничение на размерность системы и кол-во её состояний - а это по большинству критериев более сильное ограничение, нежели существование границы вероятности.

Dims писал(а):
Нужно ли в этом случае считать, что вероятность равна 1/2 (вероятность встретить динозавра равна 50% для того, кто не знает, что они вымерли)?


Если в лоб, то да 1/2, но!

Dims, чтобы корректно решать такие задачи (априорно неопределённые, или же информационно некорректные) нужно всегда различать исходный процесс, и наблюдаемый, исходную систему - и наблюдаемую, а также их модели.

В Вашем примере (о динозаврах), речь идёт на самом деле не об истинном положении вещей, а о модели наблюдения. Следовательно, для наблюдателя для начала нужно задать уровень его информированности о том, и вероятность того, что динозавры:

1) вообще существовали;
2) существуют сейчас;
3) обитают в зоне наблюдения;
4) обнаруживаются имеющимися методами и способами обнаружения;
5) наблюдатель исправен (вменяем).

И по этой модели уже можно строить энтропийно-информационные оценки верности гипотезы. Так вот, Вы получите в итоге, что наблюдатель Ваш некорректен, и его оценка 1/2 (локально верная), несостоятельна для истинной системы. Следовательно, переносить эту гипотезу на реальное положение вещей - наблюдатель, и Вы - исследователь не имеете право. Иначе - это намеренное введение потребителя информации в заблуждение! Иногда карается по статьям УК РФ. :D

Dims писал(а):
Или следует ввести двухступенчатую модель: первая ступень -- это гипотеза о вероятности, а вторая сам исход измерения? Тогда для вычисления энтропии надо использовать условные понятия. Не об этом ли говорил G^a?


Да, это первый шаг!

Успехов! :D

 Профиль  
                  
 
 
Сообщение30.09.2006, 18:48 
Заслуженный участник
Аватара пользователя


16/03/06
406
Moscow
G^a писал(а):
Книги по теориям вероятности и информации: Е.С. Вентцель, Р.Л. Стратонович, А.Н. Колмогоров.

Вот я как раз читаю книгу Венцтеля и у меня возник вопрос. Нельзя ли его разъяснить?

Цитата:
Dims писал(а):
Попробуем обобщить задачу: чему равна энтропия системы, если известна лишь граница на вероятность?

Или, ещё более общо: чему равна энтропия системы, если известно только, что это система из одного признака, который может реализоваться или нереализоваться, но вероятность этого неизвестна?


Второе утверждение - на самом деле - менее общно, нежели утверждение первое, ибо в нём Вы накладываете ограничение на размерность системы и кол-во её состояний - а это по большинству критериев более сильное ограничение, нежели существование границы вероятности.

В первом случае эти ограничения тоже были, просто я полагал, что они очевидны.

Цитата:
В Вашем примере (о динозаврах), речь идёт на самом деле не об истинном положении вещей, а о модели наблюдения.

Я это понимаю.

Цитата:
И по этой модели уже можно строить энтропийно-информационные оценки верности гипотезы. Так вот, Вы получите в итоге, что наблюдатель Ваш некорректен, и его оценка 1/2 (локально верная), несостоятельна для истинной системы.

Вот когда я получу, что наблюдатель некорректен, это будет означать, что я получу дополнительную информацию о системе.

 Профиль  
                  
 
 
Сообщение30.09.2006, 22:27 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
Определить Вы можете все что угодно (естественно, определение должно быть корректным). Но ведь Вы на этом не остановитесь, не так ли? Вы захотите переносить на новое определение свойства старого на том основании, что оно дается по аналогии и вообще называется тем же термином. А вот этого нельзя. Поэтому, в частности, не рекомендуется давать новым понятиям тех же названий, что и старые, по крайней мере в начале исследования.

Если Вы хотите, можете ввести свое нестандартное определение и назовите его как-нибудь типа Dims-энтропия. Это будет напоминать, что никакие свойства обычной энтропии пока что на эту новую не перенесены. А потом уже смотрите, могут ли различные свойства и результаты быть перенесены, и каким образом.

 Профиль  
                  
 
 
Сообщение02.10.2006, 15:27 


28/07/06
206
Россия, Москва
Добрый день, Dims!

Dims писал(а):
Вот я как раз читаю книгу Венцтеля и у меня возник вопрос. Нельзя ли его разъяснить?


Слушаю внимательно.

Dims писал(а):
В первом случае эти ограничения тоже были, просто я полагал, что они очевидны.


Для кого, для Вас? Ибо современные теоретические и прикладные задачи - это как раз изучение систем, размерность пространства состояний которых, и набор самих состояний - далеко отстоят от 1 и 2. Более того, иногда сами состояния не определяются дискретно.

Dims писал(а):
Вот когда я получу, что наблюдатель некорректен, это будет означать, что я получу дополнительную информацию о системе.


Об исходной системе? Нет! О наблюдателе - да. Но с Вашим подходом (пример с динозавром) обнаружить некорректность наблюдателя - неполучится (у Вас не синтезировано минимально необходимое множество критериев детектирования ситуации). Читайте мой предыдущий пост.

И тогда всплывает ещё один вопрос. А собственно Вас какая система и информация о ней интересуют?

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 9 ] 

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group