2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2
 
 
Сообщение30.03.2009, 14:46 


18/09/08
425
Вообще говоря существует два определения термодинамической энтропии, по Больцману и по Гиббсу. Они несколько различные и могут приводить к некотрым разным интерпретациям результатов и даже Второго закона термодинамики. Поэтому, даже в физике нет однозначности.
А связь между термодинамической и информационной энтропии очень простая. Подобное абзывается подобным образом. Когда Шеннон вывел свою формулу неопределенности информации он увидел что она похажа на Больцмана, или скоре на Гиббса - с которым она совпадает почти дословно - и обозвал ее темже словом.

 Профиль  
                  
 
 
Сообщение30.03.2009, 15:07 


27/02/09
2835
При чем здесь Шеннон? Информационную(=статистическую) трактовку энтропии дал Больцман. На то он и гений, чтобы объяснять раньше всех связи и закономерности, которые через сто лет объявляют "очень простыми" Ни фига не простая, фантастически глубокая идея...

 Профиль  
                  
 
 
Сообщение30.03.2009, 15:27 


18/09/08
425
Энтропия вообще определение чисто статистическое, а вот связь с пропускной способностью канала, то что сейчас называется информационной энтропией строго дал Шеннон. Даже если сам Больцман пользовался словом информация, то именно Шеннон дал четкое критерие этого слова.

 Профиль  
                  
 
 
Сообщение30.03.2009, 15:34 


27/02/09
2835
Pi в сообщении #200276 писал(а):
Энтропия вообще определение чисто статистическое,


Термодинамическая энтропия, которая наряду с внутренней энергией есть функция состояния тела - имеет чисто статистическое определение??? И какое же?

 Профиль  
                  
 
 
Сообщение30.03.2009, 16:40 


18/09/08
425
По Больцману который определял энтропию как логарифм числа микросостояний, реализующих данное макросостояние системы.

Гиббс определял энтропию через величины вероятности найти систему в данном состоянии в данный момент.

"Число" и "вероятность" в обоих определениях суть эквивалентные определения и определяются статистически.

Просто у Больцмана эта статистика плохо выраженна, у Гиббса очень хорошо. Шенноновское же определение суть гиббсоновское определение.

 Профиль  
                  
 
 
Сообщение30.03.2009, 17:12 


27/02/09
2835
Да не определял Больцман энтропию как логарифм..., а дал статистическую трактовку,
определение энтропии дано Р. Клаузиусом:
S=Q/T, Q -количество теплоты, T - абсолютная температура

 Профиль  
                  
 
 
Сообщение30.03.2009, 17:29 


18/09/08
425
druggist в сообщении #200301 писал(а):
Да не определял Больцман энтропию как логарифм...

Ну это ты хватил:D , впервые слышу
вот нашел популярную ссылку
http://ru.wikipedia.org/wiki/%D0%A2%D0% ... 0%B8%D1%8F

 Профиль  
                  
 
 
Сообщение31.03.2009, 05:05 
Аватара пользователя


28/06/08
1706
druggist писал(а):
Значит так, есть динамическая система (других в физике нет). Число независимых переменных в системе уравнений, описывающих эволюцию дс есть размерность фазового пространства системы. Разбиваем доступный объем фпс на "кубики" и следим долго-долго за тем сколько раз траектория пересечет каждый кубик. Отношение этого числа пересечений(естественно умноженное на время "пролета" кубика) к полному времени наблюдения за системой для каждого кубика называется микроскопической функцией распределения. Согласно постулату о равнораспределении в термодинамическом равновесии мфр постоянна для всех ячеек-кубиков или же микроскопических состояний дс и равна еденице, деленной на полное число кубиков -состояний.


а как-же быть с кубиками в которых скорость = c , согласно постулату они стольже вероятны как и любые другие кубики
похоже на УФ катострофу излучении черного тела :- )

druggist писал(а):
Тогда "информационная энтропия" это просто логарифм числа кубиков.

Тут не понятно совсем про какие кубики вы говорите ?

 Профиль  
                  
 
 
Сообщение31.03.2009, 09:54 


27/02/09
2835
AlexNew в сообщении #200463 писал(а):
druggist писал(а):


Логарифм числа состояний =числа кубиков. Определение информационной энтропии:
S= -сумма р log p по числу состояний, при р=1/N, где N -число состояний, имеем для энтропии S= log N

 Профиль  
                  
 
 
Сообщение31.03.2009, 15:05 


18/09/08
425
druggist в сообщении #200249 писал(а):
деленной на полное число кубиков -состояний. Тогда "информационная энтропия" это просто логарифм числа кубиков.

В теории информации и кодирование логарифм вероятности $$I(cubics) =-\log\ P(cubics) = -\log \frac {number\ of\ cubics} {full\ number\ of\ cubics называется просто количеством информации, а не "информационная энтропия". Энтропия это среднее количество информации $$-\sum_{cubics}P(cubics)\log\ P(cubics)$$.

 Профиль  
                  
 
 
Сообщение31.03.2009, 15:56 


27/02/09
2835
Теперь я не пойму, что за кубики :)
Разбиваем s-мерное фазовое пространство динамической системы на ку..., пардон, s-мерные ячейки, сеточку такую накладываем...Пусть кол-во ячеек N ( фп конечно как и конечен размер ячейки).Траектория дс самым причудливым образом гуляет по фп. Через равные промежутки времени смотрим в какой ячейке оказалась точка - траектория дс. После продолжительного времени наблюдения у нас в каждой ячейке будет какое-то кол-во таких точек ( согласно постулату о равнораспределении одинаковое) Вероятность обнаружения дс в какой-либо из ячеек есть отношение количества точек в этой ячейке к полному кол-ву точек, равному полному числу интервалов времени наблюдения. В то же врямя согласно уже упомянутому замечательному
постулату о равнораспределении эта же вероятность равна 1/N. Поскольку вероятности всех состояний равны, то для информационной энтропии получаем S=Log N

 Профиль  
                  
 
 
Сообщение31.03.2009, 16:59 


18/09/08
425
Премер примитивный, в нем количество информации и среднее количество информации совпадает, I=E. $$-\log\frac1 N = -\sum_{N}\frac1 N\log\frac1 N$$. Поэтому их него ничего нельзя понять.

 Профиль  
                  
 
 
Сообщение01.04.2009, 01:27 
Заслуженный участник
Аватара пользователя


09/02/09
2089
Минск, Беларусь
Pi прав. Равенстсво, вообще говоря, не соблюдается. Оно - следствие эргодической гипотезы, которая на самом деле неверна, однако даёт хорошее приближение в термодинамических масштабах.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 28 ]  На страницу Пред.  1, 2

Модераторы: photon, whiterussian, profrotter, Jnrty, Aer, Парджеттер, Eule_A, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: YandexBot [bot]


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group