2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1 ... 13, 14, 15, 16, 17, 18  След.
 
 
Сообщение02.10.2008, 11:58 
Заблокирован


26/03/07

2412
AlexNew в сообщении #147907 писал(а):
Как посчитали и почему

Дискретный детерминированный алгоритм в ПРН дает точку. Её энтропия равна нулю, т.к. объем фазового пространства = 0.

Добавлено спустя 1 минуту 20 секунд:

AlexNew в сообщении #147907 писал(а):
теорема ваша

А Вы её не видели.

Добавлено спустя 2 минуты 15 секунд:

AlexNew в сообщении #147907 писал(а):
Сложные системы предсказать точно трудно поэтому используют вероятностное описание

Ошибка, говорящая о том, что Вы не бум-бум в понимании случайности.

Добавлено спустя 7 минут 7 секунд:

AlexNew в сообщении #147907 писал(а):
Именно такие системы и изучает статфизика, игра Коновея с большим числом клеток одна из таких систем

Ошибка : клеточный автомат - не случайный. Статистическая физика и кинетика изучают истинно случайные процессы **.

** В приложении к социальным процессам, к примеру, ту вакханалию, которую развели рыночные демократы. Они случайны, т.к. без царя в голове.

 Профиль  
                  
 
 
Сообщение02.10.2008, 12:13 
Заблокирован
Аватара пользователя


07/08/06

3474
AlexNew писал(а):
AlexDem писал(а):
Энтропия - мера неопределённости в системе для наблюдателя, не обладающего никакой начальной информацией о системе.
Информация - мера устранения неопределённости.

да, и в зависимости от наблюдателя может быть любой, другое дело что в физике привыкли к наблюдателям которые наблюдают за пивом в холодильнике
AlexDem писал(а):
Пусть будет этот предел знаний, хотя всё же - каков источник случайности в классической физике? Там же детерминировано всё, а "случайность" - это лишь мера нашего незнания. Ну так вот, рассматриваем ситуацию до порога получения знаний, вопрос остаётся - если я знаю больше, для меня значение энтропии будет меньше? Нонсенс!

да так и будет, энтропия это не совсем физическое понятие.

Если не сложно, расскажите об относительности энтропии поподробнее - нигде не встречал. Вы ведь классику имеете в виду? Я исходил из того, что энтропия - функция состояния системы, а не наших знаний о нём.

Если в квантах - то да, там энтропия чистого состояния (того, для которого можно записать вектор состояния) считается равной нулю. Но ведь, по-моему, это говорит только о том, что вся информация о состоянии уже получена - она содержится как раз в векторе состояния. Поэтому, по тому определению, что я сочинил, энтропия системы будет не нулевой - она будет равна количеству информации, содержащейся в векторе состояния.

Возможно, это приводит к противоречиям, о которых я не знаю - поэтому и хотелось бы узнать поподробней.

 Профиль  
                  
 
 
Сообщение02.10.2008, 20:02 
Аватара пользователя


28/06/08
1706
В статфизике, энтропия характеризует величину неопределенности в системе после учета всех доступных макропараметров системы.
Тоесть рассматривается энтропия по отношению к макронаблюдателю. При уменьшении размеров системы, макропараметры могут стать микропараметрами (наблюдать за всем сразу станет не сложно) и мы получим в пределе энтропию = 0

pc20b писал(а):
Дискретный детерминированный алгоритм в ПРН дает точку. Её энтропия равна нулю, т.к. объем фазового пространства = 0.

Тоесть согласно вашему докозательству энтропия любой классической системы равна нулю, поскольку все законы поведения частиц детерминированы? .
AlexDem писал(а):
Если не сложно, расскажите об относительности энтропии поподробнее - нигде не встречал. Вы ведь классику имеете в виду

я имел в виду информационную энтропию, “сигнал” может быть совершенно случайным с точки зрения одного наблюдателя (максимальная энтропиея) и содержать предсказуймую информацию с точки зрения другого наблюдателя
Какая энтропия в "системе ноликов и единичек" зависит от алгоритма - наблюдателя смотрящего на эту систему.
Пример - сжатый фаил - простой взгляд покажет максимальную энтропия, если пропустить через деархиватор то окажется что с его точки зрения там очень много предсказуймого.


В физике рассматриваются всего один класс наблюдателей – макронаблюдатели, которые могут наблюдать лишь макропараметры системы. (например пиво в холодильнике, …)
Поэтому информационную энтропию нельзя путать с физической, как нельзя расширять один класс набюдателей на множество всех возможных.


pc20b писал(а):
А Вы её не видели.

Да я видел то на что вы мне дали ссылку, первое что бросилось в глаза, то что вы стали вдруг искать экстремум вашей чудо функции беспорядка,
А найдя его заявили: “вот видите у функции есть экстремум, значит она и будет стремится к этому экстремуму” – это и есть ваш постулат о не убывании беспорядка, остальное у вас списано из учебников и не интересно.
pc20b писал(а):
клеточный автомат - не случайный. Статистическая физика и кинетика изучают истинно случайные процессы

Еще одно глупство, статфизика изучает макропараметры системы, микропараметры считаются неизвестными.

Добавлено спустя 22 минуты 13 секунд:

Цитата:
Если в квантах - то да, там энтропия чистого состояния (того, для которого можно записать вектор состояния) считается равной нулю.

это не пеправельно наверное. Вектор состояния всегда наверное можно считать известным точно.
Однако колапс этого вектаро в один в один из собственных векторов - вероятностное событие.
Какое конкретно собственное значение вы получите в эксперименте неизвестно. Известны только вероятности для каждого из собственных значений.

Тоесть вектор состояния системы известен,
но интересуют предсказания измерений - а это вероятностностное событие, (вероятности тоже известны).

Если у вас есть система, то энтропия этой системы тем больше чем больше макросостояний этой системы имеют высокую вероятность осуществится.

Добавлено спустя 50 минут 18 секунд:

Тоесть вопрос в том как :
1) отоброзить множество микросостояний на множество макросостояний (предположим мы это делаем с помощью финкции S = k ln (1/p) - кстати эта функция ничем не лучьше любой другой)
2) как определить что есть такое макросостояние системы.

 Профиль  
                  
 
 
Сообщение02.10.2008, 20:08 
Заблокирован


26/03/07

2412
AlexNew в сообщении #148069 писал(а):
Тоесть согласно вашему докозательству энтропия любой классической системы равна нулю, поскольку все законы поведения частиц детерминированы? .

Если законы детурминированы и система им точно следует, то энтропия равна нулю

 Профиль  
                  
 
 
Сообщение02.10.2008, 21:59 
Аватара пользователя


28/06/08
1706
Цитата:
Если законы детурминированы и система им точно следует, то энтропия равна нулю

да, правельно, это следует из того что вы понимаете под словом энтропия. Ваша энтропия нашего мира равна нулю.

Но дело в том что в статфизики под энтропией понимают другое.
Смотрят на игру Коновея и видят что-то что называют макросостояниями системы. Если вы придумаете чего это такое в этой игре, сможете зантся там термодинамикой :wink:

 Профиль  
                  
 
 
Сообщение03.10.2008, 00:27 
Заблокирован


26/03/07

2412
AlexNew в сообщении #148110 писал(а):
Цитата:
Если законы детурминированы и система им точно следует, то энтропия равна нулю

да, правельно, это следует из того что вы понимаете под словом энтропия. Ваша энтропия нашего мира равна нулю.

Но дело в том что в статфизики под энтропией понимают другое.

Что за чушь. Под энтропией в статистической физике, грубо говоря, если не вдаваться в подробности и тонкости, понимается, согласно Эйнштейну - Гиббсу, величина, пропорциональная натуральному логарифму термодинамической вероятности, т.е. статистическому весу системы $W$ - числу возможных микросостояний, отвечающих данному (равновесному) макросостоянию :

$$S=K\ln{W}$$.

Отсюда хорошо видно, что если система полностью детерминирована, т.е. её микро- и макросостояния совпадают, следовательно, статистический вес $W=1$, то $S=0$.

Можно привести и любые другие определения энтропии и все они будут совпадать при одних и тех же условиях и означать одно и то же.

К информационной же энтропии это имеет опосредственное отношение.

P.S. А энтропия "нашего" мира была бы равна нулю с хорошей точностью, если бы нам не мешали разные любители "оттягиваться по полной".

 Профиль  
                  
 
 
Сообщение03.10.2008, 02:15 
Аватара пользователя


28/06/08
1706
Цитата:
Отсюда хорошо видно, что если система полностью детерминирована, т.е. её микро- и макросостояния совпадают , следовательно, статистический вес

вот это на самом деле чушь :)))
П.С.
вы как я посмотрю не разу не открывали учебник по статфизике, придется вам поставить двойку :twisted:

 Профиль  
                  
 
 
Сообщение03.10.2008, 07:42 
Заблокирован


26/03/07

2412
AlexNew в сообщении #148139 писал(а):
Цитата:
Отсюда хорошо видно, что если система полностью детерминирована, т.е. её микро- и макросостояния совпадают , следовательно, статистический вес

вот это на самом деле чушь

Нет, это Вы, даже открывав учебники, ничего не бум-бум : в детерминированной (полностью упорядоченной) системе мощность статистического ансамбля = 1, т.е. у неё одно микросостояние, которое , естественно, совпадает с макросостоянием, $W=1$. Следовательно, в детерминированной системе всегда энтропия $S=0$.

 Профиль  
                  
 
 
Сообщение03.10.2008, 13:32 
Заблокирован
Аватара пользователя


07/08/06

3474
pc20b в сообщении #147863 писал(а):
Вы со случайностью разберитесь, пожалуйста.

pc20b, я, вроде, не вижу у себя никаких проблем со случайностью. А вот Вы отличаете случайность от неопределённости?

AlexNew в сообщении #148069 писал(а):
Если у вас есть система, то энтропия этой системы тем больше чем больше макросостояний этой системы имеют высокую вероятность осуществится.

Видимо, здесь имелось в виду "микросостояний"?

AlexNew в сообщении #148069 писал(а):
это не пеправельно наверное. Вектор состояния всегда наверное можно считать известным точно. Однако колапс этого вектаро в один в один из собственных векторов - вероятностное событие.

Какое конкретно собственное значение вы получите в эксперименте неизвестно. Известны только вероятности для каждого из собственных значений.

Тоесть вектор состояния системы известен, но интересуют предсказания измерений - а это вероятностностное событие, (вероятности тоже известны).

Нет, это вроде верно - энтропия фон Неймана через матрицу плотности $\rho$: $S = -Tr(\rho \log_2 \rho)$. Я привёл формулу со слов: Доронин "Мера квантовой запутанности чистых состояний".

Вектор состояния существует далеко не всегда. Например, когда систему нельзя разделить на две независимых подсистемы (несепарабельность) - векторов состояний каждой из подсистем не существует.

С измерениями слабо знаком, но по-моему, примерно так: если вектор состояния не будет совпадать с одним из собственных векторов оператора измеряемой, то тогда и будет осуществляться его проекция на один из векторов с определённой вероятностью. После этого измерения вектор состояния системы будет уже другим - так что измерение не даёт никакой дополнительной информации о состоянии системы до этого измерения, а лишь устраняет неопределнность, связанную с тем, в какое из состояний перейдёт система после измерения - то есть, мы получаем информацию о новом векторе состояния. Вектор же состояния даёт наиболее полную информацию о системе, измерение её уже не уточняет.

AlexNew в сообщении #148069 писал(а):
я имел в виду информационную энтропию, “сигнал” может быть совершенно случайным с точки зрения одного наблюдателя (максимальная энтропиея) и содержать предсказуймую информацию с точки зрения другого наблюдателя. Какая энтропия в "системе ноликов и единичек" зависит от алгоритма - наблюдателя смотрящего на эту систему.

Пример - сжатый фаил - простой взгляд покажет максимальную энтропия, если пропустить через деархиватор то окажется что с его точки зрения там очень много предсказуймого.

В физике рассматриваются всего один класс наблюдателей – макронаблюдатели, которые могут наблюдать лишь макропараметры системы. (например пиво в холодильнике, …) Поэтому информационную энтропию нельзя путать с физической, как нельзя расширять один класс набюдателей на множество всех возможных.

Если аккуратно всё делать (то есть не пытаться придать информации "смысл" - тогда мы просто выходим за рамки замкнутой системы), то путать вроде можно - я ещё ниже напишу :). Сжатый файл содержит служебную информацию + массив сжатых данных. Если сжатие идеально, то увеличить энтропию массива сжатых данных не получится - то есть она действительно максимальна и ничего предсказуемого там нет. Для деархиватора сжатый массив обладает меньшей энтропией только из-за служебных данных - там присутствует дополнительная информация о сжатом массиве, как его распаковать. С учётом этой информации энтропия будет той же - максимальной. Так что по моему определению энтропия сжатого массива - постоянная величина.

AlexNew в сообщении #148069 писал(а):
В статфизике, энтропия характеризует величину неопределенности в системе после учета всех доступных макропараметров системы.

Тоесть рассматривается энтропия по отношению к макронаблюдателю. При уменьшении размеров системы, макропараметры могут стать микропараметрами (наблюдать за всем сразу станет не сложно) и мы получим в пределе энтропию = 0

Я понял, кажется, зачем эти макропараметры вообще нужны (а я их не учёл в определении). Рассмотрим два идентичных независимых куба с идеальным газом. Пусть энтропия каждого из них равна $S_0$. Тогда энтропия полной системы из обоих кубов равна $S = 2S_0$. Теперь объединим объёмы, поставив кубы рядом и убрав стенку. Энтропия полной системы увеличится $S > 2S_0$, так как увеличится объём, в котором мы "ищем" наши молекулы. И, видимо, увеличится она на такую величину, сколько информации несли макропараметры одного из кубов (ведь при объединении кубов этих макропараметров стало вдвое меньше).

Кстати, такое деление пополам здесь неспроста :). Если я всё верно помню, то энтропия - это минимальное количество ответов типа "Да/Нет" на вопросы о системе, позволяющее получить о ней полную информацию. Поэтому и формула $S = - \Sigma p_i \log_2 p_i$ не случайна, она как раз соответствует числу таких вопросов. При определении энтропии через какую-то другую функцию этот смысл потеряется.

В этом отношении дико интересно то, как может энтропия непрерывной системы (где значения координат и импульсов пробегают континуум) быть конечной, тогда как для точного определения положения в фазовом пространстве таких вопросов придётся задать бесконечно много? Или там сидит какая-то постоянная типа $\hbar$?

Я не помню вывода формулы энтропии через микросостояния и распределение Больцмана, вчера в Ландавшице посмотрел - не совсем понятно. У Вас подетальней вывода нет? Может, книжки посоветуете?

 Профиль  
                  
 
 
Сообщение03.10.2008, 17:30 
Заблокирован
Аватара пользователя


07/08/06

3474
AlexDem в сообщении #148200 писал(а):
Или там сидит какая-то постоянная типа $\hbar$?

Хм, а так теоретическое значение постоянной Планка вычислить не получится, случаем? :roll:

 Профиль  
                  
 
 
Сообщение03.10.2008, 19:44 
Аватара пользователя


28/06/08
1706
pc20b писал(а):
в детерминированной (полностью упорядоченной) системе мощность статистического ансамбля = 1, т.е. у неё одно микросостояние, которое , естественно, совпадает с макросостоянием, $W=1$. Следовательно, в детерминированной системе всегда энтропия $S=0$.

неправда, мощность равна работа деленная на време и она не равна одын )) придется вам поставить двойку и по механике :twisted:
а если серьезно то вы так и не открыли учебник ....
Итак:
за микросостояние системы можно принять раздельные квантовые состояния системы (или раздельные точки в фазовом пространстве - для классической механики).
макросостояние - это состояние соответствующее определенным величинам нашим макропараметрам - каждому такому состоянию будет соответствовать множество микросостояний
Макропараметры это то что мы меряем градусником, калориметром или еще чем нибудь большим.
Статистический вес - это число различных микросостояний, соответствующих данному макросостоянию.
(если сдвинут атом под номером 2123 10^21 немножечко левее, температура бутылки пива не изменится и макросостояние тоже, зато микросостояние станет другим)
случайность, детерминированность, здесь совершенно не причем

как бы это даже не основы, а вообще ОСНОВЫ, а вы не знаете....
AlexDem писал(а):
Видимо, здесь имелось в виду "микросостояний"?

да конечно :)
AlexDem писал(а):
Нет, это вроде верно - энтропия фон Неймана через матрицу плотности $\rho$: $S = -Tr(\rho \log_2 \rho)$. Я привёл формулу со слов: Доронин "Мера квантовой запутанности чистых состояний".

я попозже на это отвечу.
AlexDem писал(а):
С измерениями слабо знаком, но по-моему, примерно так: если вектор состояния не будет совпадать с одним из собственных векторов оператора измеряемой, то тогда и будет осуществляться его проекция на один из векторов с определённой вероятностью. После этого измерения вектор состояния системы будет уже другим - так что измерение не даёт никакой дополнительной информации о состоянии системы до этого измерения, а лишь устраняет неопределнность, связанную с тем, в какое из состояний перейдёт система после измерения - то есть, мы получаем информацию о новом векторе состояния. Вектор же состояния даёт наиболее полную информацию о системе, измерение её уже не уточняет.

да так все и есть, или матрица плотности - более общее утверждение

AlexDem писал(а):
Если аккуратно всё делать (то есть не пытаться придать информации "смысл" - тогда мы просто выходим за рамки замкнутой системы), то путать вроде можно - я ещё ниже напишу Smile. Сжатый файл содержит служебную информацию + массив сжатых данных. Если сжатие идеально, то увеличить энтропию массива сжатых данных не получится - то есть она действительно максимальна и ничего предсказуемого там нет.

а вот тут сабака и зарыта!
представте произвольный массив данных, скажем размером 10 баит,
Нет такой штуки как идеальный архиватор, если рассмотреть все возможные комбинации из 10 байт то однозначно отобразить их на 7 байт ,например, не получится, на самом деле архиватор сожмет только половину, вторую половину просто растянет. Тоесть конкретный архиватор работает только с конкретным классом данных а не со всеми множеством возможных . (архиватор текста не сможит сжать послед. ноликов и единичек соответствующих фильму например и наоборот - грубо выражаясь).
Наверное класс информации и можно отождествить с видом наблюдателя - смыслом - с макропараметрами.
Сжатие возможно всегда относительно чегото конкретного и ни шага в сторону.
Тоесть разабьем все возможнуе последовательности на классы по какому либо признаку, каждому классу ставим в соответствие алгоритм который сможет отобразить элементы этого класса на "меньэие элементы" уже другого класса.
Похоже сжатию подлежат только классы которые можно "алгоритмизировать" в смысле построить алгоритм для сжатия (например сжать число Пи просто, сжать локальные последовательности просто - тексты, сжать переодические последовательности тоже просто - фурье алгоритмы jpeg, ... )
AlexDem писал(а):
У Вас подетальней вывода нет? Может, книжки посоветуете?

пока я писал о том что не забылось - знаниях )) , но тоже решил полистать свои запасники, обязательно напишу если найду что нибудь интересное.
AlexDem писал(а):
Хм, а так теоретическое значение постоянной Планка вычислить не получится, случаем?

мне начинает нравится гуманитарная ветка :))

у нас есть хороший шанс сейчас во всем досконально разобраться!!!
(у меня такое чусвтво что мозг в фоновом режиме думал над статфизикой долгое время, сейчас многое становится очевидным.)

 Профиль  
                  
 
 
Сообщение03.10.2008, 20:30 
Заблокирован


26/03/07

2412
AlexNew в сообщении #148260 писал(а):
а если серьезно то

Я заметил распространенное свойство либерала : Вы никогда не признаётесь, что Вы не правы. И не левы. Это удручает.

 Профиль  
                  
 
 
Сообщение03.10.2008, 20:41 
Аватара пользователя


28/06/08
1706
если я не прав то всегда старюсь не забывать в этом сознаться.
если вы считаете что я не прав то укажите где конкретно
П.С.
я анархист а не либерал :twisted:

 Профиль  
                  
 
 
Сообщение03.10.2008, 20:55 
Заблокирован


26/03/07

2412
AlexNew в сообщении #148277 писал(а):
я анархист а не либерал

Извините. Анархия - мать порядка. Вот, оказывается, почему Вы отрицаете невозможность родить порядок из хаоса .

 Профиль  
                  
 
 
Сообщение04.10.2008, 00:46 
Аватара пользователя


28/06/08
1706
Цитата:
Вот, оказывается, почему Вы отрицаете невозможность родить порядок из хаоса .

как раз наоборот, я уверен что физические законы таковы что "порядок" из "хаоса" (значение этих слов нужно определить, но пока можно и так)
просто неизбежность, и если у вас есть кружка с хим элементами то рано или поздно из нее кто нибудь да вылезит.

( вспомнились древнии мифы про богинь хауса (вроде морской пены) дающих жизнь)

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 265 ]  На страницу Пред.  1 ... 13, 14, 15, 16, 17, 18  След.

Модераторы: Модераторы, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group