2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2
 
 
Сообщение30.03.2009, 14:46 


18/09/08
425
Вообще говоря существует два определения термодинамической энтропии, по Больцману и по Гиббсу. Они несколько различные и могут приводить к некотрым разным интерпретациям результатов и даже Второго закона термодинамики. Поэтому, даже в физике нет однозначности.
А связь между термодинамической и информационной энтропии очень простая. Подобное абзывается подобным образом. Когда Шеннон вывел свою формулу неопределенности информации он увидел что она похажа на Больцмана, или скоре на Гиббса - с которым она совпадает почти дословно - и обозвал ее темже словом.

 Профиль  
                  
 
 
Сообщение30.03.2009, 15:07 


27/02/09
2835
При чем здесь Шеннон? Информационную(=статистическую) трактовку энтропии дал Больцман. На то он и гений, чтобы объяснять раньше всех связи и закономерности, которые через сто лет объявляют "очень простыми" Ни фига не простая, фантастически глубокая идея...

 Профиль  
                  
 
 
Сообщение30.03.2009, 15:27 


18/09/08
425
Энтропия вообще определение чисто статистическое, а вот связь с пропускной способностью канала, то что сейчас называется информационной энтропией строго дал Шеннон. Даже если сам Больцман пользовался словом информация, то именно Шеннон дал четкое критерие этого слова.

 Профиль  
                  
 
 
Сообщение30.03.2009, 15:34 


27/02/09
2835
Pi в сообщении #200276 писал(а):
Энтропия вообще определение чисто статистическое,


Термодинамическая энтропия, которая наряду с внутренней энергией есть функция состояния тела - имеет чисто статистическое определение??? И какое же?

 Профиль  
                  
 
 
Сообщение30.03.2009, 16:40 


18/09/08
425
По Больцману который определял энтропию как логарифм числа микросостояний, реализующих данное макросостояние системы.

Гиббс определял энтропию через величины вероятности найти систему в данном состоянии в данный момент.

"Число" и "вероятность" в обоих определениях суть эквивалентные определения и определяются статистически.

Просто у Больцмана эта статистика плохо выраженна, у Гиббса очень хорошо. Шенноновское же определение суть гиббсоновское определение.

 Профиль  
                  
 
 
Сообщение30.03.2009, 17:12 


27/02/09
2835
Да не определял Больцман энтропию как логарифм..., а дал статистическую трактовку,
определение энтропии дано Р. Клаузиусом:
S=Q/T, Q -количество теплоты, T - абсолютная температура

 Профиль  
                  
 
 
Сообщение30.03.2009, 17:29 


18/09/08
425
druggist в сообщении #200301 писал(а):
Да не определял Больцман энтропию как логарифм...

Ну это ты хватил:D , впервые слышу
вот нашел популярную ссылку
http://ru.wikipedia.org/wiki/%D0%A2%D0% ... 0%B8%D1%8F

 Профиль  
                  
 
 
Сообщение31.03.2009, 05:05 
Аватара пользователя


28/06/08
1706
druggist писал(а):
Значит так, есть динамическая система (других в физике нет). Число независимых переменных в системе уравнений, описывающих эволюцию дс есть размерность фазового пространства системы. Разбиваем доступный объем фпс на "кубики" и следим долго-долго за тем сколько раз траектория пересечет каждый кубик. Отношение этого числа пересечений(естественно умноженное на время "пролета" кубика) к полному времени наблюдения за системой для каждого кубика называется микроскопической функцией распределения. Согласно постулату о равнораспределении в термодинамическом равновесии мфр постоянна для всех ячеек-кубиков или же микроскопических состояний дс и равна еденице, деленной на полное число кубиков -состояний.


а как-же быть с кубиками в которых скорость = c , согласно постулату они стольже вероятны как и любые другие кубики
похоже на УФ катострофу излучении черного тела :- )

druggist писал(а):
Тогда "информационная энтропия" это просто логарифм числа кубиков.

Тут не понятно совсем про какие кубики вы говорите ?

 Профиль  
                  
 
 
Сообщение31.03.2009, 09:54 


27/02/09
2835
AlexNew в сообщении #200463 писал(а):
druggist писал(а):


Логарифм числа состояний =числа кубиков. Определение информационной энтропии:
S= -сумма р log p по числу состояний, при р=1/N, где N -число состояний, имеем для энтропии S= log N

 Профиль  
                  
 
 
Сообщение31.03.2009, 15:05 


18/09/08
425
druggist в сообщении #200249 писал(а):
деленной на полное число кубиков -состояний. Тогда "информационная энтропия" это просто логарифм числа кубиков.

В теории информации и кодирование логарифм вероятности $$I(cubics) =-\log\ P(cubics) = -\log \frac {number\ of\ cubics} {full\ number\ of\ cubics называется просто количеством информации, а не "информационная энтропия". Энтропия это среднее количество информации $$-\sum_{cubics}P(cubics)\log\ P(cubics)$$.

 Профиль  
                  
 
 
Сообщение31.03.2009, 15:56 


27/02/09
2835
Теперь я не пойму, что за кубики :)
Разбиваем s-мерное фазовое пространство динамической системы на ку..., пардон, s-мерные ячейки, сеточку такую накладываем...Пусть кол-во ячеек N ( фп конечно как и конечен размер ячейки).Траектория дс самым причудливым образом гуляет по фп. Через равные промежутки времени смотрим в какой ячейке оказалась точка - траектория дс. После продолжительного времени наблюдения у нас в каждой ячейке будет какое-то кол-во таких точек ( согласно постулату о равнораспределении одинаковое) Вероятность обнаружения дс в какой-либо из ячеек есть отношение количества точек в этой ячейке к полному кол-ву точек, равному полному числу интервалов времени наблюдения. В то же врямя согласно уже упомянутому замечательному
постулату о равнораспределении эта же вероятность равна 1/N. Поскольку вероятности всех состояний равны, то для информационной энтропии получаем S=Log N

 Профиль  
                  
 
 
Сообщение31.03.2009, 16:59 


18/09/08
425
Премер примитивный, в нем количество информации и среднее количество информации совпадает, I=E. $$-\log\frac1 N = -\sum_{N}\frac1 N\log\frac1 N$$. Поэтому их него ничего нельзя понять.

 Профиль  
                  
 
 
Сообщение01.04.2009, 01:27 
Заслуженный участник
Аватара пользователя


09/02/09
2089
Минск, Беларусь
Pi прав. Равенстсво, вообще говоря, не соблюдается. Оно - следствие эргодической гипотезы, которая на самом деле неверна, однако даёт хорошее приближение в термодинамических масштабах.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 28 ]  На страницу Пред.  1, 2

Модераторы: photon, whiterussian, profrotter, Jnrty, Aer, Парджеттер, Eule_A, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group