Об информации имеет смысл говорить тогда, когда есть её различение. А различение возможно там и тогда, где и когда есть неоднородность.
Я уже как-то писал об этом.
Ведь информацию мы добываем с помощью сенсоров, наших собственных, органических, и искусственных, приборами и датчиками. К примеру, если марсоход передаёт по видеоканалу ровный фон одного цвета, это не несёт никакой информации (кроме той, которую мы сами формулируем, исходя из ожидаемого изображения, свойств приборов и т.д., т.е. обладая заранее некоторой дополнительной информацией). Как только фон изменился - мы получаем информацию, условно, 1 единицу: фон
изменился. Если мы имеем информацию о цвете (заранее дополнительно введённую: коды RGB и т.п.), то мы формулируем, какой цвет был и какой стал.
Как ввести понятие информации по этому принципу.
В однородной изотропной бесконечной среде размерности N информация отсутствует.
Пусть имеется гиперплоскость (размерности N-1), разделяющая эту среду на две части с различной плотностью. Теперь нужно условиться о способе получения данных из этой среды. Например, имеется некий зонд, с датчиком, реагирующим на изменение плотности внешней среды. При пересечении зондом плоскости раздела мы получаем единицу информации: свойства изменились.
Но при этом у нас нет никаких данных о местоположении зонда, его направлении, скорости и т.д.
Если мы знаем размер зонда (некое кол-во информации), на нём есть 2 датчика, а у нас - таймер, то мы можем измерить скорость движения зонда.
Но это уже неопределённая абстракция. Вернёмся к элементарному случаю.
Тут следует вспомнить эксперимент с погружением человека в глицерин температуры 36,6 , в совершенно темной и звукоизолированной комнате - сознание выключается. Значит, градиент внешних воздействий определяет деятельность сознания. А сознание производит и явление информации. Входящий поток, различаемый сознанием, автоматически несёт и информацию.
Пусть поверхность раздела сред (в 3D пространстве) имеет форму, скажем, параболоида. Управляя "вслепую" зондом, мы можем, ориентируясь на сигналы о пересечении поверхности, получить некое представление о поверхности.
Разве не таков принцип работы в экспериментах, там, где невозможно непосредственным наблюдением получить какие-либо данные? Например, об элементарных частицах. Вспышки сцинтилляторов, следы в камере Вильсона и т.д. - вот побочные данные, с которыми мы имеем дело.
И самая простая единица информации - это факт срабатывания того или иного датчика:
"что-то изменилось" - вот эта единица.
Чтобы получать больше информации, необходимо откалибровать, сопоставить данные с датчика, иметь дополнительные измерительные приборы и т.д., т.е. подключать дополнительную внешнюю информацию.
Информация, возможно, имеет свойство "размножаться", условно говоря, по факториалу количества исходной информации.
Пусть наш датчик возвращает расстояние между двумя точками. Если есть 2 точки, то он вернет 1 число. 3 точки - он вернет 3 разных числа (при "направлении" датчика на "область между" теми или иными точками. 4 точки - 6 чисел. Мы знаем формулу для N точек, вот он факториал.
Можно сказать, что соотнесение двух объектов между собой - тоже единица информации. В общем, вводить меру информации нужно через абстрактные понятия.
Глаз воспринимает яркость логарифмически, и есть порог различения яркости. Есть максимальный и минимальный пороги работоспособного режима восприятия яркости. В их пределах имеется некое N условно различимых уровня яркости, которые могут быть следовательно записаны дискретной двоичной системой - и вот вам определённое количество единиц информации. Но опять же, только в сравнении мы можем определить яркость. То есть, информация, ещё раз, это в некотором смысле производная материи.
Отвлёкся...
Для исчисления информации нужен смысловой (калибровочный) базис. Без него мы не понимаем сигнал, мы "ловим" происходящее изменение, но не можем сказать, что именно и в какой мере изменилось. Но базис несёт в себе также некоторое количество информации, пусть N смысловых единиц. Тогда, обрабатывая очередной сигнал, мы сопоставляем его относительно базиса и получаем от 1 до N единиц.
Вопрос ведь в том, как мы производим информацию.
Пусть базис - это N порогов величины. Данные об очередном сигнале могут быть записаны
единицами информации (битами в данном случае), но мы можем записать и так: сигнал больше, чем 0, чем 1, чем 10, чем 11, ..., чем 100101, и меньше, чем 100110, чем 100111, ..., чем
.
Поэтому, всё желание ввести количество информации как величину, не зависящую от наблюдателя, разбивается о саму природу информации.
-- 11.06.2013, 01:16 --Хм, ну и все эти словеса заменяются короткой и лаконичной формулировкой. Взятой из квантовой механики и немного переиначенной:
Максимальное количество информации в системе есть количество различимых наблюдателем состояний системы.А что вы ещё хотели?
Ничего нового, зато теперь глубоко обосновано. Как по-другому измерять информацию? Больше никак.
-- 11.06.2013, 01:23 --Энтропия же, попадающая в уравнения вместе с энергией, видимо, означает следующее: доступное для высвобождения количество энергии в системе соотносится с количеством состояний системы, различимых с точки зрения возможных в данных физических условиях взаимодействий элементов системы друг с другом или элементов системы с внешним источником воздействия.
То есть, если мы воздействуем на газ (химически, физически) на уровне энергий, более низких, чем необходимы для ядерных процессов, то энтропия измеряется только атомными состояниями составляющих частиц.
Повышаем энергии - и становятся доступны: рассеяние электронов на ядрах, распад и синтез ядер и т.д. Там уже количество информации повышается на многие порядки.