2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. На страницу Пред.  1 ... 11, 12, 13, 14, 15, 16, 17 ... 22  След.
 
 Re: Материя vs. информация: без философии
Сообщение09.09.2009, 19:00 


27/02/09
2842
Droog_Andrey в сообщении #241733 писал(а):
Фишка в том, что физически происходит не восприятие абстрактной "строки", а взаимодействие с конкретным материальным носителем сообщения "строка".

Восприятие информации это отдельная тема. Для описания восприятия, возможно, больше подходит понятие взаимной информации(соответствие множества рецепторов X множеству эффекторов Y)
Я имел в виду элементарные вещи: Рассмотрим систему с одномерным фазовым пространством, содержащим N=2^I элементарных ячеек (по другому - частица, могущая находиться в одном из N ящиков). Что такое максимальная информация о такой системе? Это строка из I=log N односложных (типа да-нет) ответов на вопрос, в какой из половин(правой или левой) оставшегося фазового ппространства находится система. ( Фазовое пространство вначале делится пополам, затем отбрасывается половинка не содержащая частицы, оставшаяся половина снова делится пополам и так далее...) Собственно, это номер ячейки в двоичной системе счисления. I - число двоичных разрядов есть количество максимальной информации. Любое сообщение можно закодировать конечной строкой 0 и 1. Поэтому количество максимальной информации определяется длиной строки.

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 00:47 
Заслуженный участник
Аватара пользователя


09/02/09
2092
Минск, Беларусь
Множества рецепторов и эффекторов - это абстрактные модели той или иной степени приближения.

Реально взаимодействуют физические объекты. Например, усики муравья с куском рафинада.

Поэтому необходимо уточнить, что понимается под термином "строка".

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 07:19 
Заблокирован


07/08/09

988
Droog_Andrey в сообщении #241733 писал(а):
Фишка в том, что физически происходит не восприятие абстрактной "строки", а взаимодействие с конкретным материальным носителем сообщения "строка".

И "максимум" тут можно определять как угодно. Вплоть до $tTS/\hbar$, где $t$ - время взаимодействия, $T$ и $S$ - термодинамические температура и энтропия носителя сообщения.


Это смотря чего максимум определять.
Если определять максимально возможное количество
полученной информации - то максимум вполне определен.
И не зависит от состояния воспринимающего.

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 08:57 


02/08/09
13
Droog_Andrey в сообщении #241812 писал(а):
Реально взаимодействуют физические объекты. Например, усики муравья с куском рафинада.

А как "реально взаимодействует" приемник информации с звуковым источником или световым, удаленными на большие расстояния?

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 11:54 
Заслуженный участник
Аватара пользователя


09/02/09
2092
Минск, Беларусь
А где заканчивается источник и начинается его световой сигнал? :wink:

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:07 


27/02/09
2842
Droog_Andrey в сообщении #241812 писал(а):
Поэтому необходимо уточнить, что понимается под термином "строка".


Да, тут есть некоторые непонятные моменты. В 2-х предельных случаях имеем: (1)максимальная неопределенность состояния: энтропия S=log N - максимальна, кол-во информации I=0, и (2)максимальная определенность, т.е., система находится в одном определенном состоянии -S=0, I=log N. Если мы захотим записать информацию в случае (2), то легко можем это сделать в виде строки 0 и 1, кодирующей номер ячейки. Но, допустим, у нас промежуточный случай: энтропия S меньше максимальной и не равна 0. То есть, какая-то информация о системе имеется, известно количество информации I=(Smax - S), вопрос как мы можем ее записать, зафиксировать. И тут все будет зависеть от функции распределения, в простейшем случае, напр.: все вероятности состояний в правой половине фп равны друг другу, а в левой равны 0. Тогда, чтобы выразить информацию о системе нужен всего один бит. Но имеется гораздо больше различных вариантов при фиксированном промежуточном значении энтропии, в которых вероятности посещения ячеек распределены более сложным образом и для записи информации понадобится гораздо больше символов(кодируется не номер одной ячейки, а номера и вероятности всех ячеек, где функция распределения не равна 0) Некий парадокс возникает: чтобы запомнить (записать) информацию с малым количеством информации надо использовать гораздо больше символов(ячеек памяти), чем с максимальным количеством

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:29 
Заслуженный участник
Аватара пользователя


09/02/09
2092
Минск, Беларусь
А это не что иное, как влияние приёмника, который в данном случае "понимает" только нули и единички, и поэтому нуждается в т.н. избыточной информации (существование которой здесь недавно отрицал Munin).

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:44 
Заблокирован


07/08/09

988
druggist в сообщении #241895 писал(а):
Droog_Andrey в сообщении #241812 писал(а):
Поэтому необходимо уточнить, что понимается под термином "строка".


Да, тут есть некоторые непонятные моменты. В 2-х предельных случаях имеем: (1)максимальная неопределенность состояния: энтропия S=log N - максимальна, кол-во информации I=0, и (2)максимальная определенность, т.е., система находится в одном определенном состоянии -S=0, I=log N. Если мы захотим записать информацию в случае (2), то легко можем это сделать в виде строки 0 и 1, кодирующей номер ячейки. Но, допустим, у нас промежуточный случай: энтропия S меньше максимальной и не равна 0. То есть, какая-то информация о системе имеется, известно количество информации I=(Smax - S), вопрос как мы можем ее записать, зафиксировать. И тут все будет зависеть от функции распределения, в простейшем случае, напр.: все вероятности состояний в правой половине фп равны друг другу, а в левой равны 0. Тогда, чтобы выразить информацию о системе нужен всего один бит. Но имеется гораздо больше различных вариантов при фиксированном промежуточном значении энтропии, в которых вероятности посещения ячеек распределены более сложным образом и для записи информации понадобится гораздо больше символов(кодируется не номер одной ячейки, а номера и вероятности всех ячеек, где функция распределения не равна 0) Некий парадокс возникает: чтобы запомнить (записать) информацию с малым количеством информации надо использовать гораздо больше символов(ячеек памяти), чем с максимальным количеством


вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении, полученном системой.
А все остальное - это производные от этого.

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:01 
Заслуженный участник
Аватара пользователя


09/02/09
2092
Минск, Беларусь
Vallav в сообщении #241909 писал(а):
А все остальное - это производные от этого.
Наоборот. :)

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:33 
Заблокирован


07/08/09

988
Droog_Andrey в сообщении #241915 писал(а):
Vallav в сообщении #241909 писал(а):
А все остальное - это производные от этого.
Наоборот. :)


Может тогда приведете определение - чему равно количество
информации в системе?

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:35 


27/02/09
2842
Droog_Andrey в сообщении #241915 писал(а):
вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении,


В некотором смысле сообщение это и есть система. Чтобы подсчитать вероятности, а затем энтропию, мы получаем "сообщение" из результатов последовательных измерений состояния системы, "текст" из номеров ячеек, затем подсчитываем относительную долю для каждой ячейки(кол-во результатов с данным значением номера ячейки к полному числу измерений), которая и будет вероятностью в формуле информационной энтропии Шеннона

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 14:20 
Заблокирован


07/08/09

988
druggist в сообщении #241928 писал(а):
Droog_Andrey в сообщении #241915 писал(а):
вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении,


В некотором смысле сообщение это и есть система. Чтобы подсчитать вероятности, а затем энтропию, мы получаем "сообщение" из результатов последовательных измерений состояния системы, "текст" из номеров ячеек, затем подсчитываем относительную долю для каждой ячейки(кол-во результатов с данным значением номера ячейки к полному числу измерений), которая и будет вероятностью в формуле информационной энтропии Шеннона


Не понял.
Вы не заметили, что перешли на сообщение? И подсчитываете
количество информации в сообщении.
А заявляли, что количество информации в сообщении -
для Вас вторично. Зачем же первичное определяете через вторичное?

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 14:30 


27/02/09
2842
Vallav в сообщении #241948 писал(а):
А заявляли, что количество информации в сообщении -
для Вас вторично.


Я этого не заявлял

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 15:04 
Заслуженный участник
Аватара пользователя


09/02/09
2092
Минск, Беларусь
Vallav в сообщении #241927 писал(а):
Может тогда приведете определение - чему равно количество
информации в системе?
Зачем?

 Профиль  
                  
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 15:21 
Заблокирован


07/08/09

988
Droog_Andrey в сообщении #241969 писал(а):
Vallav в сообщении #241927 писал(а):
Может тогда приведете определение - чему равно количество
информации в системе?
Зачем?


Чтобы знать, какое отношение Ваша информация имеет
отношение к общепринятому понятию информации.
Или у них только название одинаковое?

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней.  [ Сообщений: 324 ]  На страницу Пред.  1 ... 11, 12, 13, 14, 15, 16, 17 ... 22  След.

Модераторы: photon, whiterussian, profrotter, Jnrty, Aer, Парджеттер, Eule_A, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: Bing [bot]


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group