2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1 ... 11, 12, 13, 14, 15, 16, 17 ... 22  След.
 
 Re: Материя vs. информация: без философии
Сообщение09.09.2009, 19:00 
Droog_Andrey в сообщении #241733 писал(а):
Фишка в том, что физически происходит не восприятие абстрактной "строки", а взаимодействие с конкретным материальным носителем сообщения "строка".

Восприятие информации это отдельная тема. Для описания восприятия, возможно, больше подходит понятие взаимной информации(соответствие множества рецепторов X множеству эффекторов Y)
Я имел в виду элементарные вещи: Рассмотрим систему с одномерным фазовым пространством, содержащим N=2^I элементарных ячеек (по другому - частица, могущая находиться в одном из N ящиков). Что такое максимальная информация о такой системе? Это строка из I=log N односложных (типа да-нет) ответов на вопрос, в какой из половин(правой или левой) оставшегося фазового ппространства находится система. ( Фазовое пространство вначале делится пополам, затем отбрасывается половинка не содержащая частицы, оставшаяся половина снова делится пополам и так далее...) Собственно, это номер ячейки в двоичной системе счисления. I - число двоичных разрядов есть количество максимальной информации. Любое сообщение можно закодировать конечной строкой 0 и 1. Поэтому количество максимальной информации определяется длиной строки.

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 00:47 
Аватара пользователя
Множества рецепторов и эффекторов - это абстрактные модели той или иной степени приближения.

Реально взаимодействуют физические объекты. Например, усики муравья с куском рафинада.

Поэтому необходимо уточнить, что понимается под термином "строка".

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 07:19 
Droog_Andrey в сообщении #241733 писал(а):
Фишка в том, что физически происходит не восприятие абстрактной "строки", а взаимодействие с конкретным материальным носителем сообщения "строка".

И "максимум" тут можно определять как угодно. Вплоть до $tTS/\hbar$, где $t$ - время взаимодействия, $T$ и $S$ - термодинамические температура и энтропия носителя сообщения.


Это смотря чего максимум определять.
Если определять максимально возможное количество
полученной информации - то максимум вполне определен.
И не зависит от состояния воспринимающего.

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 08:57 
Droog_Andrey в сообщении #241812 писал(а):
Реально взаимодействуют физические объекты. Например, усики муравья с куском рафинада.

А как "реально взаимодействует" приемник информации с звуковым источником или световым, удаленными на большие расстояния?

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 11:54 
Аватара пользователя
А где заканчивается источник и начинается его световой сигнал? :wink:

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:07 
Droog_Andrey в сообщении #241812 писал(а):
Поэтому необходимо уточнить, что понимается под термином "строка".


Да, тут есть некоторые непонятные моменты. В 2-х предельных случаях имеем: (1)максимальная неопределенность состояния: энтропия S=log N - максимальна, кол-во информации I=0, и (2)максимальная определенность, т.е., система находится в одном определенном состоянии -S=0, I=log N. Если мы захотим записать информацию в случае (2), то легко можем это сделать в виде строки 0 и 1, кодирующей номер ячейки. Но, допустим, у нас промежуточный случай: энтропия S меньше максимальной и не равна 0. То есть, какая-то информация о системе имеется, известно количество информации I=(Smax - S), вопрос как мы можем ее записать, зафиксировать. И тут все будет зависеть от функции распределения, в простейшем случае, напр.: все вероятности состояний в правой половине фп равны друг другу, а в левой равны 0. Тогда, чтобы выразить информацию о системе нужен всего один бит. Но имеется гораздо больше различных вариантов при фиксированном промежуточном значении энтропии, в которых вероятности посещения ячеек распределены более сложным образом и для записи информации понадобится гораздо больше символов(кодируется не номер одной ячейки, а номера и вероятности всех ячеек, где функция распределения не равна 0) Некий парадокс возникает: чтобы запомнить (записать) информацию с малым количеством информации надо использовать гораздо больше символов(ячеек памяти), чем с максимальным количеством

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:29 
Аватара пользователя
А это не что иное, как влияние приёмника, который в данном случае "понимает" только нули и единички, и поэтому нуждается в т.н. избыточной информации (существование которой здесь недавно отрицал Munin).

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 12:44 
druggist в сообщении #241895 писал(а):
Droog_Andrey в сообщении #241812 писал(а):
Поэтому необходимо уточнить, что понимается под термином "строка".


Да, тут есть некоторые непонятные моменты. В 2-х предельных случаях имеем: (1)максимальная неопределенность состояния: энтропия S=log N - максимальна, кол-во информации I=0, и (2)максимальная определенность, т.е., система находится в одном определенном состоянии -S=0, I=log N. Если мы захотим записать информацию в случае (2), то легко можем это сделать в виде строки 0 и 1, кодирующей номер ячейки. Но, допустим, у нас промежуточный случай: энтропия S меньше максимальной и не равна 0. То есть, какая-то информация о системе имеется, известно количество информации I=(Smax - S), вопрос как мы можем ее записать, зафиксировать. И тут все будет зависеть от функции распределения, в простейшем случае, напр.: все вероятности состояний в правой половине фп равны друг другу, а в левой равны 0. Тогда, чтобы выразить информацию о системе нужен всего один бит. Но имеется гораздо больше различных вариантов при фиксированном промежуточном значении энтропии, в которых вероятности посещения ячеек распределены более сложным образом и для записи информации понадобится гораздо больше символов(кодируется не номер одной ячейки, а номера и вероятности всех ячеек, где функция распределения не равна 0) Некий парадокс возникает: чтобы запомнить (записать) информацию с малым количеством информации надо использовать гораздо больше символов(ячеек памяти), чем с максимальным количеством


вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении, полученном системой.
А все остальное - это производные от этого.

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:01 
Аватара пользователя
Vallav в сообщении #241909 писал(а):
А все остальное - это производные от этого.
Наоборот. :)

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:33 
Droog_Andrey в сообщении #241915 писал(а):
Vallav в сообщении #241909 писал(а):
А все остальное - это производные от этого.
Наоборот. :)


Может тогда приведете определение - чему равно количество
информации в системе?

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 13:35 
Droog_Andrey в сообщении #241915 писал(а):
вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении,


В некотором смысле сообщение это и есть система. Чтобы подсчитать вероятности, а затем энтропию, мы получаем "сообщение" из результатов последовательных измерений состояния системы, "текст" из номеров ячеек, затем подсчитываем относительную долю для каждой ячейки(кол-во результатов с данным значением номера ячейки к полному числу измерений), которая и будет вероятностью в формуле информационной энтропии Шеннона

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 14:20 
druggist в сообщении #241928 писал(а):
Droog_Andrey в сообщении #241915 писал(а):
вы что то странное считаете - количество информации
в системе.
Вроде бы определено только количество информации в
сообщении,


В некотором смысле сообщение это и есть система. Чтобы подсчитать вероятности, а затем энтропию, мы получаем "сообщение" из результатов последовательных измерений состояния системы, "текст" из номеров ячеек, затем подсчитываем относительную долю для каждой ячейки(кол-во результатов с данным значением номера ячейки к полному числу измерений), которая и будет вероятностью в формуле информационной энтропии Шеннона


Не понял.
Вы не заметили, что перешли на сообщение? И подсчитываете
количество информации в сообщении.
А заявляли, что количество информации в сообщении -
для Вас вторично. Зачем же первичное определяете через вторичное?

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 14:30 
Vallav в сообщении #241948 писал(а):
А заявляли, что количество информации в сообщении -
для Вас вторично.


Я этого не заявлял

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 15:04 
Аватара пользователя
Vallav в сообщении #241927 писал(а):
Может тогда приведете определение - чему равно количество
информации в системе?
Зачем?

 
 
 
 Re: Материя vs. информация: без философии
Сообщение10.09.2009, 15:21 
Droog_Andrey в сообщении #241969 писал(а):
Vallav в сообщении #241927 писал(а):
Может тогда приведете определение - чему равно количество
информации в системе?
Зачем?


Чтобы знать, какое отношение Ваша информация имеет
отношение к общепринятому понятию информации.
Или у них только название одинаковое?

 
 
 [ Сообщений: 324 ]  На страницу Пред.  1 ... 11, 12, 13, 14, 15, 16, 17 ... 22  След.


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group