2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней. На страницу 1, 2, 3, 4, 5 ... 22  След.
 
 Материя vs. информация: без философии
Сообщение11.03.2009, 23:57 
Заслуженный участник
Аватара пользователя


09/02/09
2086
Минск, Беларусь
Суть этого топика - в попытке подойти научно к описанию материи и информации как двух равноправных составляющих объективной реальности.

Размещается она в подфоруме по физике по той причине, что физика исследует материальные объекты, основываясь на их наблюдении.

В рамках данного топика имеет смысл:

1. Отказаться от философских рассуждений о существовании объективной реальности, информации либо материи, в т.ч. отказаться от приведения аргументов в пользу материалистического либо идеалистического подходов к описанию реальности и прочих попыток разрешения основного вопроса философии (ОВФ).

2. Исходить из объективного существования как материи, так и информации (по крайней мере до тех пор, пока в рамках данного подхода не будет обнаружено противоречий), приняв эти понятия в качестве базовых (подробнее см. ниже в этом сообщении).

3. Абстрагироваться от приёмника информации при описании информационных объектов и понимать термин "информация" в широком смысле.

4. Исходить из общепринятых физических концепций при описании материальных объектов.

* * * * * * *

Общие положения (возможно, будут постепенно уточняться в ходе обсуждения).

Материальный объект - физический объект с полной энергией, не равной нулю тождественно. Например: планета, атом, монитор, фотон, карандаш, гравитационное поле. Материальные объекты существуют в физическом пространстве-времени и являются носителями информации. Энергия является атрибутом материи, и в силу закона сохранения может в некотором смысле быть рассмотрена как мера количества материи.

Информационный объект - абстрактный объект, не имеющий энергии принципиально. Например: теорема Пифагора, число $\pi$, симметрия, волновая функция, пустое множество, событие, понятие "планета", понятие "атом", понятие "монитор", текст на этом мониторе. Информационные объекты существуют в абстрактном пространстве состояний и придают материи наблюдаемость. Энтропия объекта есть первое приближение количества информации об объекте.

Информационная и материальная стороны реальности неразделимы: информация своим существованием обязана дифференциации материи в пространстве-времени (если бы вся материя была одинаковой, нечего было бы описывать); материя своим существованием обязана дифференциации информации в пространстве состояний (если бы состояния были неотличимыми, нечего было бы наблюдать). Любое материальное взаимодействие сопровождается передачей информации, т.е. изменением состояний; любое информационное взаимодействие сопровождается передачей энергии, т.е. изменением материальных объектов. И то, и иное есть событие.

Некоторые предлагаемые к рассмотрению величины:

полный поток информации, или трафик, через материальный носитель с термодинамической температурой $T$ и энтропией $S$ - величина порядка $\frac{TS}{\hbar}$. Интересует возможность уточнения определения данной величины, а также определение аналогичной величины для квантовых объектов.

Трафик через человеческий мозг составляет около $10^{40}$ бит в секунду. Примерно столько же - через двухлитровую банку воды. Отличия между мозгом и банкой велики, но составляют очень малую долю от этой величины, в то время как львиную долю составляет информация о случайных событиях, происходящих в носителе.

характеристическая частота - величина порядка $\frac{kT}{\hbar}$ ($k$ - постоянная Больцмана) - отношение потока информации через материальный носитель к его информационной ёмкости. Если представить полную информацию о носителе как набор свойств (выбор конкретного набора определяется базисом приёмника; для простоты можно считать свойства однобитными), то данная величина будет отражать усреднённую определённым образом по всем свойствам частоту изменения этих свойств. В зависимости от приёмника распределение частот по свойствам может быть разным (возможно, за исключением граничного случая $TS \to E/2$, где $E$ - полная энергия материального носителя): чем "разумнее" базис приёмника, тем больше низкочастотных (в пределе - перманентных, "полезных") свойств системы он в состоянии обнаружить.

Представляется интересным развить такую математическую модель информационного объекта (и в дальнейшем обозначить взаимосвязи с квантовомеханическим описанием соответствующего материального носителя).

Помимо указанных взаимосвязей с физикой, также весьма интересно связать анализ информационных объектов с математическими представлениями о доказуемости и выводимости, с представлениями об операторах и т.д.

* * * * * * *

Предыстория. Началось всё с заданного на этом подфоруме вопроса "существует ли не-материя?", топик о котором впоследствии переехал и начал быстро обрастать философскими рассуждениями.

Перенесу сюда основные мысли (купированно - для краткости и системности), которые нашли было там поддержку и интерес.

Droog_Andrey в сообщении #192210 писал(а):
Существование как материальных, так и информационных объектов, строго говоря, недоказуемо (и спор о первичности тех либо иных является испокон лет основным вопросом философии - ОВФ, но не будем здесь об этом).

Махровые идеалисты предпочитают оперировать информацией и считают, что материальный мир - лишь модель (как в фильме "Матрица"), позволяющая систематизировать реальность.

Закоренелые материалисты считают, что информация не существует объективно и является лишь удобным инструментом для описания материального мира.

[...]

Впервые с феноменом информации серьёзно столкнулись физики в начале XX века, разрабатывая квантовую механику. Так случилось потому, что именно для квантовых объектов объём получаемой о них информации сравним с их энтропией.

В дальнейшем понятие информации стало развиваться шире, поначалу в прикладном значении в качестве элемента теории связи (Шеннон и компания), а затем и в более фундаментальном смысле (Пенроуз, Пригожин, Хазен, Чернавский и другие).

[...]

Victor Orlov в сообщении #189734 писал(а):
Другое дело, как соотнести КОЛИЧЕСТВО информации с ее физической записью. Если, допустим, мне в руки попалась небольшая глиняная табличка, на которой есть запись, сделанная неведомым, полностью вымершим народом, и если кроме этой короткой записи на мертвом языке, нет ни малейших следов этого мертвого языка, то с моей точки зрения эта запись информации не содержит. Но одновременно я понимаю, что если бы знал мертвый язык, то табличка содержала бы для меня информацию.
То есть бывают ситуации, связанные с информацией, которые понять трудно.

Просто здесь разные вещи.

Есть энтропия таблички - это физический "потолок" количества информации, которую можно передать с её помощью (с точностью до некоторой постоянной).

Есть реально передаваемая Вам информация - это форма таблички, её цвет, детали рельефа поверхности, химический состав пятнышка на левом краю и т.п., - как правило, её объём намного меньше энтропии (т.к. табличка - не квантовый объект, а температура её существенно отличается от нуля).

А есть существенная для Вас информация - та из передаваемой, на которую Вы обращаете внимание. Например, это буквы, изображённые на табличке. Как правило, это очень малая часть от всей передаваемой информации.

Именно эта последняя именуется информацией в бытовом смысле и в смысле теории связи Шеннона (здесь она - сигнал, а остальная - шум). Она существенно зависит от приёмника и поэтому рассматривается в совокупности с ним (недостаток теории Шеннона).

Путаница в терминах возникает из-за отсутствия на настоящщий момент устоявшихся чётких представлений об информации и связанных с ней вещах. Возможно, эта ситуация исправится в будущем, - все предпосылки к этому уже есть.


* * * * * * *

Предостережения.

1. Второй уровень абстрагирования.
Бытовое понимание термина "информация", как и его трактовка в шенноновском смысле, существенно привязывает его к процессу передачи информации (по сути, теория Шеннона является теорией связи), в результате чего невозможно полностью абстрагироваться от источника. Вместе с тем на такое абстрагирование нет принципиальных запретов, лишь только психологический барьер (например, известный вопрос "как выглядит океан, когда на него никто не смотрит?" вызывает ощущение парадоксальности).

Ребёнку также трудно поначалу использовать термин "число два", не видя перед собой, например, два яблока. Однако мозг ребёнка постепенно успешно справляется с этой задачей, и он выходит на первый уровень абстрагирования: оперирование информационными объектами вне зависимости от их материальных носителей (например, использование информационного объекта "число два" без помощи примера с яблоками).

Точно так же можно абстрагироваться от приёмника информации, описывая информационный объект. Каждый приёмник будет по-своему воспринимать: например, информация о распределении чернил на бумаге одним человеком будет воспринята как текст, другим человеком - как набор непонятных символов, сканером - как набор пикселей и т.д., однако объективно это распределение одинаково независимо от приёмника; приёмник лишь осуществляет разделение поступающей к нему информации на сигнал (существенная для приёмника информация) и шум (несущественная для приёмника информация). Это разделение является одним из следствий взаимодействия информационных объектов "распределение чернил на бумаге" и "базис приёмника" (Шеннон в последнем выделяет т.н. "базовую информацию").

2. Отличия между объектом и информацией о нём.
Приведу несколько отрывков обсуждения из первоначальной темы:
Droog_Andrey в сообщении #192699 писал(а):
Sonic86 писал(а):
Далее, информация как эмпирический объект материальна (носитель). Числа и формулы на доске пишутся мелом, состоящим из карбоната кальция, буквы в книге написаны типографской краской на бумаге.
Вот в том-то и дело, что следует отличать информацию от носителя. Мел, бумага, типографская краска - это материя, а буквы, тексты и состояния - это информация.

Поэтому некорректно говорить "информация материальна". Корректно говорить "носители информации материальны". Информация и её носители - это совершенно разные вещи.

Я уже упоминал на этом форуме, что стирание различий между объектом и информацией о нём - причина огромного количества парадоксов и заблуждений.

[...]

Sonic86 писал(а):
Эмпирический объект может взаимодействовать с другим эмпирическим объектом. Ну, в частности электрон может взаимодействовать и числом 2, если оно например сделано из металла - уйдет к прочим электронам проводимости. Электрон не может взаимодействовать с состоянием.
Число два есть абстракция. Из металла может быть сделан материальный носитель, часть информации о котором мы можем воспринять как информационный объект "число два". Взаимодействует с электроном в нашем примере металлический материальный объект, а вовсе не само число два.
Точно так же не следует отождествлять краску и её цвет, наблюдение и наблюдаемость, квантовую систему и её волновую функцию, физическую величину и значение физической величины, монитор и понятие "монитор". Обратите внимание, что информация об объекте не равна объекту независимо от того, является объект информационным либо материальным. В частности, поэтому не любому информационному объекту соответствует объект материальный.

3. Дискретность человеческого мышления.
Разделение на объекты имеет место во многих моделях реальности и объясняется последовательностью, дискретностью человеческого мышления. Весьма хорошо это свойство иллюстрируется моделью мышления "машина Тьюринга".

Поэтому в рассуждениях об информации не следует упускать из внимания тот факт, что выделение объекта как самостоятельной единицы из общего контекста реальности привносит искажения в его информационное описание ничуть не менее, чем запирание фотона в ящике ограниченных размеров изменяет свойства этого фотона. Иначе эти искажения могут стать причиной ложных выводов или появления противоречий.

* * * * * * *

Спасибо за внимание. Приветствуются уточнения, комментарии, вопросы. :)

P.S. Внесены правки в соответствии с post239372.html#p239372

 Профиль  
                  
 
 
Сообщение12.03.2009, 16:37 
Заслуженный участник


08/04/08
8556
Я физику знаю плохо. Поэтому приведу только логическую часть, которую я считаю необходимой, чтобы избежать некоторых недоразумений.
Необходимо хоть как-то объяснить слово "информация". Вроде как автор согласился со следующим.
Просто можно описать так:
Информация - множество всех состояний объекта. Так как все множество состояний нам неизвестно, то лучше так: если С - какое-то состояние реального объекта РО, то состояние С является информацией объекта ИРО.
Следствия:
Любая ИРО реальна
Любая ИРО объективна (существует независимо от того, есть познающий или нет)
Любая ИРО нематериальна.
РО существует ИРО существует (предикат существования).
Любая ИО является реальным объектом.
Описание дано как описание реального явления, поэтому это - не определение (для реальных объектов вообще определения не даются), а только самое начальное описание, от которого можно отталкиваться и уже

потом какие-то определения давать.
Немного по-другому с абстрактными объектами. Абстрактные объекты не существуют в природе, существуют только их названия (идеального газа нету, а слово "идеальный газ" есть). Можно попытаться написать определение информации ИАО абстрактного объекта АО по аналогии. Но тогда сама ИАО есть абстрактный объект. И тогда должно получится:
Любая ИАО нереальна (но реальны ее термины)
Любая ИАО объективна (так как дано ее определение)
Любая ИАО нематериальна.
АО существует ИАО существует (тут существует в смысле квантора существования).

 Профиль  
                  
 
 
Сообщение13.03.2009, 18:17 


27/02/09
2791
На тему информации в физическом контексте рассуждали серьезные физики, например, Леон Бриллюэн, Г Хакен, Б.Б. Кадомцев, Д.С.Чернавский. Может быть, стоит сначала ознакомиться с их работами и "информационные объекты" отпадут сами собой? :)

 Профиль  
                  
 
 
Сообщение13.03.2009, 20:14 
Заслуженный участник
Аватара пользователя


09/02/09
2086
Минск, Беларусь
Sonic86 писал(а):
Необходимо хоть как-то объяснить слово "информация".
Объяснить - да. Однако если пытаться дать строгое определение, то привяжемся к какому-то другому понятию, причём менее общему.

Sonic86 писал(а):
Просто можно описать так:
Информация - множество всех состояний объекта. Так как все множество состояний нам неизвестно, то лучше так: если С - какое-то состояние реального объекта РО, то состояние С является информацией объекта ИРО.
Следствия:
Любая ИРО реальна
Любая ИРО объективна (существует независимо от того, есть познающий или нет)
Любая ИРО нематериальна.
РО существует ИРО существует (предикат существования).
Любая ИО является реальным объектом.
Описание дано как описание реального явления, поэтому это - не определение (для реальных объектов вообще определения не даются), а только самое начальное описание, от которого можно отталкиваться и уже потом какие-то определения давать.
В таком описании мне противоречий не видится, однако есть две загвоздки.

1) перед нами встаёт вопрос "что такое состояние"?
2) квантовые объекты не всегда существуют в конкретных состояниях.

Sonic86 писал(а):
Немного по-другому с абстрактными объектами. Абстрактные объекты не существуют в природе, существуют только их названия (идеального газа нету, а слово "идеальный газ" есть).
Не совсем так. В природе не существует их точного материального воплощения. Однако они существуют как часть информации обо многих объектах.

Например, та же абстракция "идеальный газ" представляет собой набор объективных закономерностей, выполняющихся с той или иной точностью в различных реальных физических системах вне зависимости от наблюдателя. Поэтому информация об этих закономерностях, т.е. абстрактный объект "модель идеального газа", существует объективно. Описание же этой модели в каких-либо терминах уже субъективно, т.к. оно есть результат взаимодействия этих закономерностей с изучающим их субъектом (например, человечеством).

Sonic86 писал(а):
Любая ИАО нереальна (но реальны ее термины)
Любая ИАО объективна (так как дано ее определение)
Эти два утверждения противоречат друг другу. Информация об абстрактном объекте реальна; нереальны такие их материальные воплощения, которые не содержат посторонней информации (которая на практике существует и заключает в себе погрешность модели).

Вообще, процесс абстракции есть вычленение аналогичной информации из разных объектов, делаемое, как правило, с целью как-либо охарактеризовать их совокупность. Например, абстрактный объект "шар" есть информация о шарообразности, полученная изначально из различных объективно шарообразных объектов. При этом сам процесс абстракции субъективен, т.к. разделение производит субъект на основании собственного опыта.

druggist писал(а):
На тему информации в физическом контексте рассуждали серьезные физики, например, Леон Бриллюэн, Г Хакен, Б.Б. Кадомцев, Д.С.Чернавский. Может быть, стоит сначала ознакомиться с их работами и "информационные объекты" отпадут сами собой? :)
Именно этим я и занимался несколько лет назад.

Повторюсь, без "информационных объектов" действительно можно обойтись. Можно и без комплексных чисел в математике обойтись. Однако это весьма неудобно зачастую.

Тому же Чернавскому ИО не понадобились, т.к. он рассуждал, как Вы верно заметили, на тему информации в физическом контексте. В этой же теме я предлагаю рассуждать на тему физики в информационном контексте.

Дабы удовлетворить скептизицизм, приведу пару пробных выводов, которые, возможно, наметят пути применения описанного в этой теме подхода.

1. Представление волновой функции как информационного объекта, процесса измерения - как информационного взаимодействия с этим объектом, и получаемых значений физических величин - как его результата - сильно упрощает понимание квантовой механики (и, в частности, преподавание её студентам). Вот эти интегралы, которые пишут студентам со словами "поверьте, что это работает, и не задумывайтесь, почему", - они ведь и есть части информации о системе, преобразуемой под действием измерителя.

Представления о симметрии, по сути, являются отражением законов преобразования информации. Например, если один из взаимодействующих объектов центральносимметричен, а второй хирален, то информация о конкретной конфигурации хирального никак не передастся центральносимметричному. Для последнего просто несущественна эта информация о хиральности.

Дифракция электрона, дающая интерференционную картину при отсутствии датчиков на щелях и не дающая в их присутствии, также обычно трудно объясняема. Однако в рамках информационного подхода всё просто: наличие датчика, взаимодействующего с электроном, вносит для электрона отличимость этих щелей, в результате чего объективно рождается информация о пролетании через одну либо другую щель. Если же датчиков нет, то щели для электрона объективно неотличимы, и он пролетает через обе из них: у него нет ни необходимости, ни возможности "выбирать".

Расщепление вырожденных состояний есть нарушение симметрии, т.е. привнесение информации в систему. При таком представлении становится очевидным, что вырожденные состояния - это объективно одно состояние, которое характеризуется определённым объёмом информации; если последний увеличить, внеся в систему отличимость той же кошкой Шрёдингера, то появляется и больше вариантов исхода.

Вероятность есть та же информация, представленная в статистическом смысле. Хотя про это, наверное, рановато. :-) Благодаря Шеннону большинство привыкло выражать количество информации через вероятность, а не наоборот (что объективнее). Правда, есть и попытки приблизиться к объективности:
http://arxiv.org/abs/quant-ph/0401021
С точки зрения теории чисел предложенная в этой статье модель весьма красива; она позволяет соотнести простейшие информационные объекты - натуральные числа - с информационными объектами квантовых систем, приписав натуральным числам $N$ энтропию порядка $\sum\limits_{k=1}^{N}\frac1k$.

2. Вышеупомянутая характеристическая частота системы, будучи доопределена для любых систем (а не только термодинамических), представит собой не что иное, как "собственные часы" системы. В свете этого представляется весьма правдоподобной идентичность лоренц-преобразований для температуры и для частоты, т.е. справедливость подхода Планка. Подробнее эту тему хотелось бы обсудить здесь:
http://dxdy.ru/topic20547.html

3. Соотношение неопределённостей вытекает естественным образом из конечности энтропии объекта. В самом деле, в заданном состоянии (при фиксировнанном значении одной физической величины) мы не можем извлечь из системы бесконечно большой объём информации (сколь угодно точное значение сопряжённой величины). Более того: сама квантовость - счётность множества состояний - есть также следствие конечности энтропии.

4. Понятие степени свободы сможет приобрести формальную строгость.

И т.д., и т.п.

 Профиль  
                  
 
 
Сообщение16.03.2009, 15:25 


27/02/09
2791
Так и не понял сути этого Вашего топика. Ввести для любой абстрактной системы фазовое пространство(пространство состояний) и функцию распределения - это, конечно, оригинально и ново, но чем же тогда интенсивно занимались математики последние лет семьдесят? :)
При физическом подходе возникновение информации связано с возбуждением и поддержанием в системе макроскопических степеней свободы и должно быть "оплачено" соответствующим производством энтропии(термодинамической). Пример - ячейки Бенара. При своем возникновении они могут быть"закручены" по или против часовой стрелке... а это есть возникновение одного бита информации(макроскопической, в отличие от негэнтропии, что особо подчеркивает Д.С. Чернавский)

 Профиль  
                  
 
 
Сообщение16.03.2009, 17:55 
Заслуженный участник
Аватара пользователя


09/02/09
2086
Минск, Беларусь
druggist в сообщении #195559 писал(а):
Так и не понял сути этого Вашего топика.

Droog_Andrey в сообщении #194320 писал(а):
Суть этого топика - в попытке подойти научно к описанию материи и информации как двух равноправных составляющих объективной реальности.


druggist в сообщении #195559 писал(а):
возникновение информации связано с возбуждением и поддержанием в системе макроскопических степеней свободы
А что, на Ваш взгляд, заключается в поддержании макроскопических степеней свободы, и чем они отличаются от микроскопических?

 Профиль  
                  
 
 
Сообщение16.03.2009, 19:00 


27/02/09
2791
Droog_Andrey писал(а):
А что, на Ваш взгляд, заключается в поддержании макроскопических степеней свободы, и чем они отличаются от микроскопических?


Про диссипативные структуры что-нибудь слышали?
P.S. Макроскопических = коллективных

 Профиль  
                  
 
 
Сообщение16.03.2009, 21:31 
Аватара пользователя


28/06/08
1706
удивительно, тему до сих пор не забанили :shock:

Цитата:
1. Представление волновой функции как информационного объекта, процесса измерения - как информационного взаимодействия с этим объектом, и получаемых значений физических величин - как его результата - сильно упрощает понимание квантовой механики (и, в частности, преподавание её студентам). Вот эти интегралы, которые пишут студентам со словами "поверьте, что это работает, и не задумывайтесь, почему", - они ведь и есть части информации о системе, преобразуемой под действием измерителя.

Представления о симметрии, по сути, являются отражением законов преобразования информации. Например, если один из взаимодействующих объектов центральносимметричен, а второй хирален, то информация о конкретной конфигурации хирального никак не передастся центральносимметричному. Для последнего просто несущественна эта информация о хиральности.

то о чем вы говорите называется Математика, к информации это не имеют никакого отношения.
У понятия "информация" есть конкретное определения и конкретная облость приминения, к физике это не имеет отношение.
Ваше "житейское" понимание слова "информация" не уместно здесь.

физика описывается с помощью мат моделей, это и есть глубокая истина кот вы ищите : )

 Профиль  
                  
 
 
Сообщение16.03.2009, 21:41 
Заблокирован
Аватара пользователя


07/08/06

3474
AlexNew в сообщении #195705 писал(а):
У понятия "информация" есть конкретное определения

Интересно было бы посмотреть :)

 Профиль  
                  
 
 
Сообщение17.03.2009, 00:31 
Заслуженный участник
Аватара пользователя


09/02/09
2086
Минск, Беларусь
AlexNew писал(а):
то о чем вы говорите называется Математика, к информации это не имеют никакого отношения.
Математика имеет к информации самое непосредственное отношение.

AlexNew писал(а):
У понятия "информация" есть конкретное определения и конкретная облость приминения, к физике это не имеет отношение.
Если Вам не известно о применении понятия информации в физике, то это ещё ни о чём не говорит :-)

AlexDem писал(а):
AlexNew в сообщении #195705 писал(а):
У понятия "информация" есть конкретное определения

Интересно было бы посмотреть :)
+1 :)

Впрочем, Ваша точка зрения мне ясна по сообщениям в других темах вроде
AlexNew в сообщении #195697 писал(а):
частица это и есть волновая функция
:)

druggist писал(а):
Про диссипативные структуры что-нибудь слышали?
Разумеется. На Пригожина, кстати, я ссылался ещё в первом сообщении.

Так в чём заключается поддержание, на Ваш взгляд?

 Профиль  
                  
 
 
Сообщение17.03.2009, 10:27 


27/02/09
2791
Droog_Andrey писал(а):

Так в чём заключается поддержание, на Ваш взгляд?



А с возникновением макроскопических степеней свободы стало быть все ясно? Ответ очевидный, для возникновения необходимо достаточное удаление от термодинамически равновесного состояния за счет притока негэнтропии в систему. Возникновение происходит через неустойчивость основного состояния, а поддержание за счет постоянного притока негэнтропиив систему (или отвода энтропии из системы). Собственно, диссипативная структура и есть рождение и поддержание макроскопических степеней свободы в системах, сильно удаленных от состояния термодинамического равновесия

Насчет информации в физике. Пожалуй, такого физического понятия все же нет, поскольку в нем нет необходимости, хотя физическая трактовка информации существует. Конкретного(формального) определения информации также не существует, есть формальное определение взаимной информации.

 Профиль  
                  
 
 
Сообщение17.03.2009, 14:52 
Заблокирован
Аватара пользователя


07/08/06

3474
Droog_Andrey в сообщении #195758 писал(а):
Впрочем, Ваша точка зрения мне ясна по сообщениям в других темах вроде

Ух ты, поделитесь, и я её буду знать тоже! :wink:

Мы как то с AlexNew беседовали в Гуманитарной ветке и определение информации я действительно давал:
AlexDem писал(а):
Энтропия - мера неопределённости в системе для наблюдателя, не обладающего никакой начальной информацией о системе.

Информация - мера устранения неопределённости.

AlexNew мне потом напомнил, что есть макропараметры, поэтому здесь "не обладающего никакой начальной информацией" нужно понимать как "обладающего только информацией о макромараметрах".

Кстати, вот объём - это тоже мера, так что здесь следовало бы говорить о "количестве объёма". А вот каково определение самого объёма :roll:. Не знаю, на этом же уровне строгости я бы сказал, что информация - это форма.

druggist в сообщении #195812 писал(а):
Конкретного(формального) определения информации также не существует, есть формальное определение взаимной информации.

Если это - оно, то речь идёт опять о количестве информации.

druggist в сообщении #195812 писал(а):
Пожалуй, такого физического понятия все же нет, поскольку в нем нет необходимости

Обоснуйте.

 Профиль  
                  
 
 
Сообщение18.03.2009, 05:15 
Аватара пользователя


28/06/08
1706
я соглашусь с druggist : )

В науке все используемые понятия имеют конкретное значение, научное значение слову "информация" наверное впервые придал Шеннон.

К физике информацию можно притянуть ради красного словца, рассматривая все например с точки зрения макронаблюдателя, но делать этого не следует, потому как недалекие философы начинают огороды городить вокруг. Есть статфизика, термодимика, не нужно придумывать то без чего можно обойтись.

то что Droog_Andrey называет информацией, является житейским понятием, в которое согребаются все непонятные ему штуки : ) уверен что даже ему самому не известно что он под "информацией" понимает,
возможно какое нибудь информационное поле? : )

я бы остановился на конкретных определениях (вроде того что привел druggist http://ru.wikipedia.org/wiki/Взаимная_информация) с конкретной областью приминения.

Добавлено спустя 7 минут 12 секунд:

: ) во, нашел его определение

Droog_Andrey писал(а):
Информационный объект - абстрактный объект, не имеющий энергии принципиально. Например: теорема Пифагора, число , симметрия, волновая функция, пустое множество, событие, понятие "планета", понятие "атом", понятие "монитор", текст на этом мониторе. Информационные объекты существуют в абстрактном пространстве состояний и придают материи наблюдаемость. Энтропия является мерой количества информации.

тоесть все сущее кроме "материи"
интерестно а чем электрон материальнее числа пи? экспереметы позволяют определить обоих.
разница наверное только в том что число pi мы понимаем во всех деталях, чего впрочем не скажешь о многих других мат. конструкциях.

 Профиль  
                  
 
 
Сообщение18.03.2009, 14:47 
Заслуженный участник
Аватара пользователя


30/01/06
72407
AlexNew в сообщении #196130 писал(а):
тоесть все сущее кроме "материи"

Нет. Это просто неграмотное определение. Волновая функция материальна.

 Профиль  
                  
 
 
Сообщение20.03.2009, 16:41 


27/02/09
2791
AlexNew писал(а):

...Информационные объекты существуют в абстрактном пространстве состояний и придают материи наблюдаемость.


[/quote]

Если из данного предложения выкинуть словосочетание "Информационные объекты" и заменить его на вопросительное "Что придает материи наблюдаемость?", было бы интересно порассуждать. Старина Кант говорил про "априорные формы восприятия", но, поскольку здесь философия под запретом, то оставим априорные формы, тем более, что они подозрительно смахивают на "информационные объекты". :) Попробуем взглянуть с другой стороны, не от субъекта, а от объекта. Логично положить, что наблюдаемость материи придает устойчивость ее форм, неэфемерность, воспроизводимость и т.д. Термодинамически равновесные состояния тел - одна из форм наблюдаемости/устойчивости с минимальным набором макропараметров и, следовательно, с минимальной информацией. Неравновесные стационарные состояния также могут быть устойчивыми, т.н., диссипативные структуры. Для их существования необходима достаточная степень неравновесности, при достижении которой термодинамически устойчивая ветвь теряет устойчивость, и в результате "бифуркации рождения параметра" появляются и запоминаются новые макропараметры, возникает новая информация. Для ее существования нужен постоянный поток негэнтропии в систему, каждый бит такой макроскопической информации "оплачен" производством термодинамической энтропии.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Эта тема закрыта, вы не можете редактировать и оставлять сообщения в ней.  [ Сообщений: 324 ]  На страницу 1, 2, 3, 4, 5 ... 22  След.

Модераторы: photon, whiterussian, profrotter, Jnrty, Aer, Парджеттер, Eule_A, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: YandexBot [bot]


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group