2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. На страницу Пред.  1 ... 11, 12, 13, 14, 15, 16, 17 ... 22  След.
 
 Re: Материя vs. информация: без философии
Сообщение09.09.2009, 19:00 


27/02/09
2835
Droog_Andrey в сообщении #241733 писал(а):
Фишка в том, что физически происходит не восприятие абстрактной "строки", а взаимодействие с конкретным материальным носителем сообщения "строка".

Восприятие информации это отдельная тема. Для описания восприятия, возможно, больше подходит понятие взаимной информации(соответствие множества рецепторов X множеству эффекторов Y)
Я имел в виду элементарные вещи: Рассмотрим систему с одномерным фазовым пространством, содержащим N=2^I элементарных ячеек (по другому - частица, могущая находиться в одном из N ящиков). Что такое максимальная информация о такой системе? Это строка из I=log N односложных (типа да-нет) ответов на вопрос, в какой из половин(правой или левой) оставшегося фазового ппространства находится система. ( Фазовое пространство вначале делится пополам, затем отбрасывается половинка не содержащая частицы, оставшаяся половина снова делится пополам и так далее...) Собственно, это номер ячейки в двоичной системе счисления. I - число двоичных разрядов есть количество максимальной информации. Любое сообщение можно закодировать конечной строкой 0 и 1. Поэтому количество максимальной информации определяется длиной строки.

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 00:47 
Заслуженный участник
Аватара пользователя


09/02/09
2089
Минск, Беларусь
Множества рецепторов и эффекторов - это абстрактные модели той или иной степени приближения.

Реально взаимодействуют физические объекты. Например, усики муравья с куском рафинада.

Поэтому необходимо уточнить, что понимается под термином "строка".

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 07:19 
Заблокирован


07/08/09

988
Droog_Andrey в сообщении #241733 писал(а):
Фишка в том, что физически происходит не восприятие абстрактной "строки", а взаимодействие с конкретным материальным носителем сообщения "строка".

И "максимум" тут можно определять как угодно. Вплоть до $tTS/\hbar$, где $t$ - время взаимодействия, $T$ и $S$ - термодинамические температура и энтропия носителя сообщения.


Это смотря чего максимум определять.
Если определять максимально возможное количество
полученной информации - то максимум вполне определен.
И не зависит от состояния воспринимающего.

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 08:57 


02/08/09
13
Droog_Andrey в сообщении #241812 писал(а):
Реально взаимодействуют физические объекты. Например, усики муравья с куском рафинада.

А как "реально взаимодействует" приемник информации с звуковым источником или световым, удаленными на большие расстояния?

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 11:54 
Заслуженный участник
Аватара пользователя


09/02/09
2089
Минск, Беларусь
А где заканчивается источник и начинается его световой сигнал? :wink:

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:07 


27/02/09
2835
Droog_Andrey в сообщении #241812 писал(а):
Поэтому необходимо уточнить, что понимается под термином "строка".


Да, тут есть некоторые непонятные моменты. В 2-х предельных случаях имеем: (1)максимальная неопределенность состояния: энтропия S=log N - максимальна, кол-во информации I=0, и (2)максимальная определенность, т.е., система находится в одном определенном состоянии -S=0, I=log N. Если мы захотим записать информацию в случае (2), то легко можем это сделать в виде строки 0 и 1, кодирующей номер ячейки. Но, допустим, у нас промежуточный случай: энтропия S меньше максимальной и не равна 0. То есть, какая-то информация о системе имеется, известно количество информации I=(Smax - S), вопрос как мы можем ее записать, зафиксировать. И тут все будет зависеть от функции распределения, в простейшем случае, напр.: все вероятности состояний в правой половине фп равны друг другу, а в левой равны 0. Тогда, чтобы выразить информацию о системе нужен всего один бит. Но имеется гораздо больше различных вариантов при фиксированном промежуточном значении энтропии, в которых вероятности посещения ячеек распределены более сложным образом и для записи информации понадобится гораздо больше символов(кодируется не номер одной ячейки, а номера и вероятности всех ячеек, где функция распределения не равна 0) Некий парадокс возникает: чтобы запомнить (записать) информацию с малым количеством информации надо использовать гораздо больше символов(ячеек памяти), чем с максимальным количеством

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:29 
Заслуженный участник
Аватара пользователя


09/02/09
2089
Минск, Беларусь
А это не что иное, как влияние приёмника, который в данном случае "понимает" только нули и единички, и поэтому нуждается в т.н. избыточной информации (существование которой здесь недавно отрицал Munin).

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:44 
Заблокирован


07/08/09

988
druggist в сообщении #241895 писал(а):
Droog_Andrey в сообщении #241812 писал(а):
Поэтому необходимо уточнить, что понимается под термином "строка".


Да, тут есть некоторые непонятные моменты. В 2-х предельных случаях имеем: (1)максимальная неопределенность состояния: энтропия S=log N - максимальна, кол-во информации I=0, и (2)максимальная определенность, т.е., система находится в одном определенном состоянии -S=0, I=log N. Если мы захотим записать информацию в случае (2), то легко можем это сделать в виде строки 0 и 1, кодирующей номер ячейки. Но, допустим, у нас промежуточный случай: энтропия S меньше максимальной и не равна 0. То есть, какая-то информация о системе имеется, известно количество информации I=(Smax - S), вопрос как мы можем ее записать, зафиксировать. И тут все будет зависеть от функции распределения, в простейшем случае, напр.: все вероятности состояний в правой половине фп равны друг другу, а в левой равны 0. Тогда, чтобы выразить информацию о системе нужен всего один бит. Но имеется гораздо больше различных вариантов при фиксированном промежуточном значении энтропии, в которых вероятности посещения ячеек распределены более сложным образом и для записи информации понадобится гораздо больше символов(кодируется не номер одной ячейки, а номера и вероятности всех ячеек, где функция распределения не равна 0) Некий парадокс возникает: чтобы запомнить (записать) информацию с малым количеством информации надо использовать гораздо больше символов(ячеек памяти), чем с максимальным количеством


вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении, полученном системой.
А все остальное - это производные от этого.

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:01 
Заслуженный участник
Аватара пользователя


09/02/09
2089
Минск, Беларусь
Vallav в сообщении #241909 писал(а):
А все остальное - это производные от этого.
Наоборот. :)

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:33 
Заблокирован


07/08/09

988
Droog_Andrey в сообщении #241915 писал(а):
Vallav в сообщении #241909 писал(а):
А все остальное - это производные от этого.
Наоборот. :)


Может тогда приведете определение - чему равно количество
информации в системе?

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:35 


27/02/09
2835
Droog_Andrey в сообщении #241915 писал(а):
вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении,


В некотором смысле сообщение это и есть система. Чтобы подсчитать вероятности, а затем энтропию, мы получаем "сообщение" из результатов последовательных измерений состояния системы, "текст" из номеров ячеек, затем подсчитываем относительную долю для каждой ячейки(кол-во результатов с данным значением номера ячейки к полному числу измерений), которая и будет вероятностью в формуле информационной энтропии Шеннона

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 14:20 
Заблокирован


07/08/09

988
druggist в сообщении #241928 писал(а):
Droog_Andrey в сообщении #241915 писал(а):
вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении,


В некотором смысле сообщение это и есть система. Чтобы подсчитать вероятности, а затем энтропию, мы получаем "сообщение" из результатов последовательных измерений состояния системы, "текст" из номеров ячеек, затем подсчитываем относительную долю для каждой ячейки(кол-во результатов с данным значением номера ячейки к полному числу измерений), которая и будет вероятностью в формуле информационной энтропии Шеннона


Не понял.
Вы не заметили, что перешли на сообщение? И подсчитываете
количество информации в сообщении.
А заявляли, что количество информации в сообщении -
для Вас вторично. Зачем же первичное определяете через вторичное?

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 14:30 


27/02/09
2835
Vallav в сообщении #241948 писал(а):
А заявляли, что количество информации в сообщении -
для Вас вторично.


Я этого не заявлял

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 15:04 
Заслуженный участник
Аватара пользователя


09/02/09
2089
Минск, Беларусь
Vallav в сообщении #241927 писал(а):
Может тогда приведете определение - чему равно количество
информации в системе?
Зачем?

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 15:21 
Заблокирован


07/08/09

988
Droog_Andrey в сообщении #241969 писал(а):
Vallav в сообщении #241927 писал(а):
Может тогда приведете определение - чему равно количество
информации в системе?
Зачем?


Чтобы знать, какое отношение Ваша информация имеет
отношение к общепринятому понятию информации.
Или у них только название одинаковое?

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней.  [ Сообщений: 324 ]  На страницу Пред.  1 ... 11, 12, 13, 14, 15, 16, 17 ... 22  След.

Модераторы: photon, whiterussian, profrotter, Jnrty, Aer, Парджеттер, Eule_A, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group