2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3, 4, 5, 6  След.
 
 Re: Семантическая и другие виды информации
Сообщение06.04.2015, 15:38 
Заслуженный участник


27/04/09
28128

(Оффтоп)

epros в сообщении #1000852 писал(а):
Аксиоматическим признанием некоего распределения за "самое равномерное" (или что-то в этом роде). :wink:
Так нету же его. Точнее, на прямой-то принципом максимума энтропии можно получить нормальное распределение, но не вообще, а для данных $\mu,\sigma$. На полупрямой необходим только один параметр. И только на отрезке, о чудо, параметры не нужны и распределение единственно. Но вы и так всё это знаете, наверно, а кроме банальностей мне здесь сказать нечего. :-)

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение06.04.2015, 18:38 
Заслуженный участник
Аватара пользователя


28/09/06
10851
arseniiv в сообщении #1000870 писал(а):
И только на отрезке, о чудо, параметры не нужны и распределение единственно.
Самое интересное, что единственность того, что кажется единственным на отрезке, тоже очень сомнительна. Например, вот есть у нас переменная $x \in [0,1]$. Казалось бы, равномерное распределение очевидно. А если мы вдруг захотим перейти к переменной $y=x^2$, так на ней это равномерное распределение превращается в неравномерное, а равномерным оказывается совсем другое. И ввиду взаимно однозначного соответствия между этими переменными вопрос о том, какое из распределений является "истинно равномерным", приобретает очень интересное звучание.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение06.04.2015, 19:42 
Заблокирован
Аватара пользователя


07/08/06

3474
AGu в сообщении #1000786 писал(а):
Вроде, поможет. Фактически речь идет о познании объектов методом проверки гипотез. Ну вот, я формулирую очень пространную гипотезу, что данный объект устроен так-то и так-то и никак иначе, перечисляю все мыслимые детали (их ведь конечное число, так что это в принципе возможно), излагаю все это в нескольких миллионах книжных томов, и спрашиваю оракула, соответствует ли моя гипотеза действительности. Получив в ответ «да», я испускаю дух.

Да Вы оптимист, батенька :D
А если получите "Нет", то что будете делать?
Наверное, моя формулировка несколько косячная, там нужно добавить словечко "гарантированно".

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение06.04.2015, 20:05 
Заслуженный участник


09/05/08
1155
Новосибирск
AlexDem в сообщении #1000934 писал(а):
там нужно добавить словечко "гарантированно".
Во-во, я как раз об этом. Подозрительно простое определение. Там явно не хватает важных деталей. И соответствующая формализация будет нетривиальная. Недаром тут теорвер с матстатом рулит умами.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение06.04.2015, 20:17 
Заблокирован
Аватара пользователя


07/08/06

3474
AGu, а такое чем плохо:
Цитата:
Минимальное количество вопросов вида "Да/Нет", гарантированно позволяющее узнать всё об интересующем объекте.

?

Пусть у нас есть ящик, в котором лежит число от $1$ до $N$. Можно, конечно, задавать вопросы "А равно ли это число $1$?", потом $2$, $3$... Количество вопросов будет $N$. А можно задавать "Больше ли это число, чем $N/2$?" - и таких вопросов придётся задать меньше, всего $\log_2 N$. За меньшее количество вопросов гарантированно узнать число в ящике не удастся.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение06.04.2015, 20:36 
Заслуженный участник


27/04/09
28128
epros в сообщении #1000920 писал(а):
А если мы вдруг захотим перейти к переменной $y=x^2$, так на ней это равномерное распределение превращается в неравномерное, а равномерным оказывается совсем другое.
Переменные могут завести не туда. Им соответствует не одна ситуация в зависимости от того, какую мы назовём независимой. Будут две случайные величины, одна из которых равномерно распределена на $[0;1]$, а другая — её квадрат или корень, и «равномерность» никак не изменится от наших взглядов на переменные — либо данная величина равномерно распределена, либо нет, и, каков бы ни был ответ, он навсегда одинаковый, т. к. ему не от чего зависеть кроме закона распределения величины.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение06.04.2015, 20:57 
Заслуженный участник
Аватара пользователя


28/09/06
10851
arseniiv в сообщении #1000951 писал(а):
каков бы ни был ответ, он навсегда одинаковый, т. к. ему не от чего зависеть кроме закона распределения величины.
А каков ответ на вопрос, какому из этих распределений соответствует максимум энтропии?

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение06.04.2015, 22:34 
Заслуженный участник


27/04/09
28128
Равномерному, ибо оно единственно на фиксированном носителе, если существует.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение07.04.2015, 09:25 
Заслуженный участник
Аватара пользователя


28/09/06
10851
arseniiv в сообщении #1000998 писал(а):
Равномерному, ибо оно единственно на фиксированном носителе, если существует.
Как это два эквивалентных описания одного и того же состояния могут обладать: одно -- максимальной энтропией, а другое -- нет? Существование биекции ведь означает, что это -- просто разные способы описания одного и того же состояния объекта.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение07.04.2015, 10:33 


15/04/10
985
г.Москва
Вы затронули фактически вопрос мат статистики о распознавании вида и параметров распределения по выборке.
В основе байесовского подхода лежат ошибки 1 2 рода. Но не помню, чтобы при описании этих задач там явно участвовала бы энтропия. Интересно было бы разобраться в случаях
а)выбора конкретной гипотезы о виде ф.р. из конечного множества альтернатив
б)бесконечного множества
в)оценки параметров при известном распределении
Какое там изменение энтропии

-- Вт апр 07, 2015 11:54:50 --

eugrita в сообщении #1000367 писал(а):
epros в сообщении #1000162 писал(а):
Опять "многа букафф" и в основном -- всё какая-то ерундень. Хотя вопрос в целом яйца выеденного не стОит.


Да вопрос очень широк. Но вызван он стремлением информатики объять необъятное.
Я просто констатирую если информатика хочет объяснять мир с позиций оценки количества информации, то при реализации этого
придется столкнуться с очень разными задачами. А если их не обсуждать ,то будут лишь ярлыки типа "Семантический подход" или т.п. вроде как на концерте объявят заголовок пьесы и не сыграют

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение07.04.2015, 12:59 
Заслуженный участник
Аватара пользователя


28/09/06
10851
eugrita в сообщении #1001135 писал(а):
если информатика хочет объяснять мир с позиций оценки количества информации, то при реализации этого
придется столкнуться с очень разными задачами.
Отнюдь. Как раз для "оценки количества информации" нужно всего лишь применить известную меру к распределению вероятностей. И известно, что любое описание любой предметной области так или иначе приводится к распределению вероятностей на некоем множестве альтернатив.

А вот если Вам нужны другие меры, например, достоверность или рыночная стоимость информации, то это уже другой разговор.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение07.04.2015, 15:32 
Заслуженный участник


27/04/09
28128
epros в сообщении #1001125 писал(а):
Как это два эквивалентных описания одного и того же состояния могут обладать: одно -- максимальной энтропией, а другое -- нет? Существование биекции ведь означает, что это -- просто разные способы описания одного и того же состояния объекта.
Распишите аккуратнее, что именно делаете — и станет видно, что не так.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение07.04.2015, 15:47 
Заслуженный участник
Аватара пользователя


28/09/06
10851
arseniiv в сообщении #1001189 писал(а):
epros в сообщении #1001125 писал(а):
это -- просто разные способы описания одного и того же состояния объекта.
Распишите аккуратнее, что именно делаете — и станет видно, что не так.
Ну вот пример: Есть склад лампочек (миллионы штук) потребляемой мощностью от 10 до 1000 ватт, все -- для сети 220 вольт. Больше мы априорно про них ничего не знаем (т.е. никто нам не сообщил каково распределение лампочек по мощностям). Некто наугад достаёт лампочку со склада и сообщает нам, что её потребляемая мощность лежит в диапазоне от 100 до 200 ватт. Какое количество информации мы получили с этим сообщением?

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение07.04.2015, 22:25 
Заслуженный участник


27/04/09
28128
epros в сообщении #1001195 писал(а):
Некто наугад достаёт лампочку со склада и сообщает нам, что её потребляемая мощность лежит в диапазоне от 100 до 200 ватт. Какое количество информации мы получили с этим сообщением?
Я как раз нашёл ту штуку, Kullback—Leibler divergence $D_{KL}(\mu\parallel\nu) = \int \log\dfrac{d\mu}{d\nu}d\mu$, где $\mu,\nu$ — вероятностные меры на одном и том же множестве; $\mu$ абсолютно непрерывна по отношению к $\nu$. В частности, для непрерывных случайных величин $\xi,\eta$ на $X$ с плотностями $f_\xi,f_\eta$ это будет $\int_X f_\xi(x)\log\dfrac{f_\xi(x)}{f_\eta(x)}\,dx$, так что в вашем примере она будет равна в битах $\frac BA\log_2\frac BA$, где $B = (1000-10)\,\text{Вт}$, $A = (200-100)\,\text{Вт}$, если распределения предположить равномерными. Примечательно, что величина зависит только от $B/A$.

-- Ср апр 08, 2015 00:55:03 --

Чего-то ерунда насчиталась. Должно быть $\log_2\frac BA$ — и тут даже с интуицией начинает сходиться.

 Профиль  
                  
 
 Re: Семантическая и другие виды информации
Сообщение08.04.2015, 04:32 


15/04/10
985
г.Москва
Кто ищет-тот найдет -нашел статью в научном журнале непросто написанную
КОЛИЧЕСТВЕННАЯ МЕРА ИНФОРМАЦИИ В СТАТИСТИЧЕСКОЙ ОБРАБОТКЕ ОПЫТНЫХ ДАННЫХ
http://sciencejournal.sstu.ru/sites/default/files/24_0.pdf
т е ответ на мой интерес к попытке применения энтропии в задачах статистич проверки гипотез
там формулы для энтропий теоретических непрерывных распределений. Когда я учился - была конечно теор вер и какая-то мат.статистика, но информатики как науки- не давали. Можно ли как-то теперь при изложении теор вер или статистики
проложить мостик между ними и теорией информации? Считать интегралы студентам мехмата и МВТУ -не привыкать

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 83 ]  На страницу Пред.  1, 2, 3, 4, 5, 6  След.

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group