2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3, 4, 5, 6, 7  След.
 
 
Сообщение08.11.2006, 22:30 


06/11/06
7
ну даже если так. Все равно мировые константы! Тоесть основные (базовые) операнды математики связаны ! Правда нуля нету... Вот так лучше:
${\rm e}^{{\rm i}\pi}+1=0}$

 Профиль  
                  
 
 пи корней из двух
Сообщение20.11.2006, 15:32 
Аватара пользователя


15/11/06
2689
Москва Первомайская
Вот какая мысль. Возьмем текст на русском языке. Буквы в нем встречаются с конкретной частотой р(а), ..., р(я). И можно подсчитать его энтропию -р(а)log р(а) - ... - р(я)log р(я), где log двоичный. Оказывается, в среднем по русскому языку эта энтропия весьма близка к пи корень из двух. Отсюда, подбирая текст, можно приблизить пи (или корень из двух) с любой степенью точности. Желателен только небольшой специализированный калькулятор. Возьмем, например, предложение "Отношение длины окружности к диаметру обозначается греческой буквой пи". Его энтропия равна 4 с четвертью (4.248...), откуда пи равно "библейским" трем (3.00...).

Правда, я не соображу что-то, возможен ли конечный текст, энтропия которого есть пи корень из двух в точности?

 Профиль  
                  
 
 Re: пи корней из двух
Сообщение20.11.2006, 15:40 
Заслуженный участник
Аватара пользователя


11/12/05
3542
Швеция
geomath писал(а):
Правда, я не соображу что-то, возможен ли конечный текст, энтропия которого есть пи корень из двух в точности?

Мне это представляется безнадежной задачей из теории трансцендентных чисел.
В то же время, всякая мистика о таинственной связи языка и геометрии должна избегаться.

 Профиль  
                  
 
 
Сообщение20.11.2006, 19:48 
Заблокирован
Аватара пользователя


07/08/06

3474
geomath писал(а):
Оказывается, в среднем по русскому языку эта энтропия весьма близка к пи корень из двух. Отсюда, подбирая текст, можно приблизить пи (или корень из двух) с любой степенью точности.

Хм, а откуда эти данные - в среднем по русскому языку? Мне кажется, избыточность языка должна быть связана с восприятием, и по разным текстам она будет разная. Например, технический текст скорее всего пожмется архиватором больше, чем литературный из-за устойчивых словосочетаний. Анализатор написать не проблема, только мне тоже кажется, что язык с геометрией никак не связан, зато связь должна быть с помехоустойчивым кодированием.

 Профиль  
                  
 
 
Сообщение21.11.2006, 16:06 
Аватара пользователя


15/11/06
2689
Москва Первомайская
Вот, частоты встречаемости русских букв я взял отсюда:

http://ivr.webzone.ru/articles/alt_win/index.htm.

И подсчитал по ним энропию, которая получилась равной 4.444... (дальше идут еще две восьмерки, но они уже заведомо недостоверны). Поделив это на корень из 2, получаем 3.14... . И в принципе можно получить любое количество правильных знаков числа пи, подбирая нужный текст... Не знаю только, возможен ли конечный текст, дающий таким манером число пи в точности?

 Профиль  
                  
 
 
Сообщение21.11.2006, 20:18 
Заблокирован
Аватара пользователя


07/08/06

3474
geomath писал(а):
Не знаю только, возможен ли конечный текст, дающий таким манером число пи в точности?

Вот тут есть доказательство, что логарифм от рационального числа может быть иррациональным. Произведение иррационального на рациональное число не может дать рационального, иначе бы мы смогли представить иррациональное число дробью. Ну а сумма иррациональных способна быть как рациональной, так и нет. Так что, по-видимому, число $\pi$ точно представить все же можно (правда, там еще и вероятности взаимозависимы, но думаю, что это не должно являться ограничением).

geomath писал(а):
И подсчитал по ним энропию, которая получилась равной 4.444... (дальше идут еще две восьмерки, но они уже заведомо недостоверны). Поделив это на корень из 2, получаем 3.14...

Может Вы и правы, но разобраться, откуда там берется $\pi$, нелегко. Для этого нужно залезть в это помехоустойчивое кодирование (по моему предположению) и поискать там в формулах $\pi$ и $\sqrt 2$. Но при этом нужно иметь ввиду, что язык формировался в основном в устной форме, поэтому анализировать, по идее, надо бы аудиосигнал, а там элементов гораздо больше, нежели букв - одна и та же буква в разных слогах будет звучать иначе. Дело все более запутывается...

Хотя сам факт, что, возможно, частота встречаемости букв связана с $\pi$ - очень интересен, и у меня нет идеи - как это получилось. Возможно, все же, выборка была не репрезентативной (126 Kb неизвестного текста), и энропия варьируется в таких пределах, что захватывает и указанное Вами соотношение...

 Профиль  
                  
 
 
Сообщение21.11.2006, 20:30 
Заслуженный участник
Аватара пользователя


17/10/05
3709
:evil:
Хм. А Вам не показалось, что 4.444… очень похоже на $40/9$?

Вообще, поиск подобных закономерностей — весьма непродуктивное занятие. Хотя бы потому, что статистика неточна, зависит от времени (менятся язык, меняются тексты. Не говоря уж — о ужас! — о реформах орфографии), зависит от методоллогии (например, текст учитывать однократно, или пропорционально тиражу? — и то и другое мотивировано).

Добавлено спустя 3 минуты:

:evil:
AlexDem писал(а):
Вот тут есть доказательство, что логарифм от рационального числа может быть иррациональным.

Может. А может и не быть. И это все абсолютно неважно. Поскольку практически единственный способ извлечь информацию из принадлежности к классу — это привести рассуждение к противоречию. А у Вас противоречия нет, так что и информацию не извлечь.

 Профиль  
                  
 
 
Сообщение21.11.2006, 21:20 
Заблокирован
Аватара пользователя


07/08/06

3474
незваный гость писал(а):
Может. А может и не быть. И это все абсолютно неважно. Поскольку практически единственный способ извлечь информацию из принадлежности к классу — это привести рассуждение к противоречию. А у Вас противоречия нет, так что и информацию не извлечь.

Так я и не доказывал, что энтропия в любом случае будет выражаться иррациональным числом, а лишь то, что она может выражаться таким числом. По Вашему - доказательство неверно?

 Профиль  
                  
 
 
Сообщение21.11.2006, 22:32 
Заслуженный участник
Аватара пользователя


17/10/05
3709
:evil:
AlexDem писал(а):
Так я и не доказывал, что энтропия в любом случае будет выражаться иррациональным числом, а лишь то, что она может выражаться таким числом. По Вашему - доказательство неверно?

Доказательство может быть верное. Но доказываемы факт не интересен — что энтропия может быть иррациональным числом (а може и не быть). Мне представляется весьма затруднительным применить это «может быть» знание по существу.

Другое дело, если бы мы доказали, что энтропия всегда рациональна или всегда иррационально. Тогда мы могли бы отмести некоторое количество кандидатов.

А так… Для того, чтобы доказать, что энтропия может быть иррациональна, достаточно привести пример о двух буквах с частотами 1/3 и 2/3. Для доказательства возможной рациональности достаточно привести пример об одной букве. В целом, малоинтересный факт.

 Профиль  
                  
 
 
Сообщение22.11.2006, 13:22 
Заблокирован
Аватара пользователя


07/08/06

3474
незваный гость писал(а):
Доказательство может быть верное. Но доказываемы факт не интересен — что энтропия может быть иррациональным числом (а може и не быть).

Ну, то доказательство, что я привел, интересно прежде всего для меня :) Вывод, правда, не совсем верен - вероятность того, что с помощью конечного текста мы получим $\pi$ точно, стремится к нулю из-за дискретизации - хотя мы и попадаем в иррациональные числа, само $\pi$ мы можем просто перешагнуть.

Гораздо интересней рассмотреть бесконечный текст - какова вероятность того, что мы сможем задать $\pi$ точно с помощью произвольного бесконечного текста? Пусть мы пишем в файл мантиссу $m$ числа $q$, длина последовательности = $n$. Тогда само число можно представить в виде:
$$q = \frac m {10^n}$$.

Для простоты уберем энтропию и поставим вопрос - можно ли представить $\pi$ точно с помощью такой последовательности произвольной длины в виде:
$\pi = r * q$,

где $r \in R$ - произвольное не "особенное" число, например $\sqrt 2$ (под "особенным" здесь понимается такое число, умножение которого на рациональное дает $\pi$).

Очевидно, что меняя цифры в бесконечности последовательности мы получим некоторое множество чисел Q. Если это множество рациональных чисел, то множество $r * Q$ будет счетным, следовательно вероятность попасть в $\pi$ будет такой же, как и в случае конечной последовательности.

С другой стороны, мы можем принять $r = 10$, которое явно не "особенное", а в файл записать бесконечную последовательность, представляющую собой точное значение числа $\pi$...

Хотелось бы найти здесь ошибку!

Добавлено спустя 20 минут 15 секунд:

AlexDem писал(а):
Хотелось бы найти здесь ошибку!

Ага, уже нашел - множество Q - не счетно.

Тогда можно сказать, что вероятность попасть в $\pi$ будет экспоненциально расти от 0 до 1 при росте длины текста от 1 до $\infty$.

Если представить часть экспоненты слева от оси OY, и свернуть левую координатную полуплоскость в цилиндр бесконечного радиуса, то справа от OY мы увидим поведение вероятности на конечных последовательностях, а слева - на бесконечных. Например, можно посмотреть, какова будет вероятность в точке $\infty - 1$ :)

 Профиль  
                  
 
 
Сообщение23.11.2006, 14:28 
Аватара пользователя


15/11/06
2689
Москва Первомайская
AlexDem писал(а):
Возможно, все же, выборка была не репрезентативной (126 Kb неизвестного текста), и энропия варьируется в таких пределах, что захватывает и указанное Вами соотношение...

Текст вполне репрезентативен, поскольку обычно считается, что указанная энтропия составляет ~ 4.4.

И то, что пи получается здесь "негеометрически", тоже не должно смущать. Скорее должно смущать, что энпропия - размерная величина, в битах, поскольку берется двоичный логарифм. Однако двойка и корень квадратный из нее замечательны и сами по себе, чтобы обратить на себя внимание и не остановиться на 40/9; пожалуй, пойду организую от этом отдельную ветку и адресую ее Котофеичу!

незваный гость писал(а):
В целом, малоинтересный факт.

Смотрите, можно организовать интересную математическую игру, возможно даже коммерчески значимую. В окошко специализированного калькулятора вводится случайно выбранный текст, в котором разрешается изменить, например, не более 10 слов или букв (это место надо додумать), чтобы получить пи с рекордной точностью. Можно даже проводить соревнования на время или на результат за фиксированное время. :)

 Профиль  
                  
 
 
Сообщение23.11.2006, 14:39 
Заблокирован
Аватара пользователя


07/08/06

3474
geomath писал(а):
И то, что пи получается здесь "негеометрически", тоже не должно смущать. Скорее должно смущать, что энпропия - размерная величина, в битах, поскольку берется двоичный логарифм.

То, что не геометрически - это как раз интересно (просто здесь большая проблема с получением точного значения). Величина эта безразмерная, как, например, 10 штук.

 Профиль  
                  
 
 
Сообщение23.11.2006, 14:59 
Аватара пользователя


15/11/06
2689
Москва Первомайская
У cepesha такой калькулятор есть, нужно только добавить вычисление энтропии.

http://dxdy.ru/viewtopic.php?p=41525#41525

 Профиль  
                  
 
 
Сообщение23.11.2006, 15:06 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
AlexDem писал(а):
Величина эта безразмерная, как, например, 10 штук.


Энтропия считается размерной величиной. Размерность действительно связана с выбором основания логарифма и совпадает с размерностью информации. Если логарифм двоичный, то энтропия и информация меряется в битах, если натуральный - то в натах.

 Профиль  
                  
 
 
Сообщение23.11.2006, 16:16 
Заблокирован
Аватара пользователя


07/08/06

3474
PAV писал(а):
Энтропия считается размерной величиной.

Так можно и штуки десятками посчитать - получим меньшее значение деци-штук. Что-то вы меня совсем запутали :)

Добавлено спустя 55 минут 15 секунд:

Кстати, хороший архиватор пожмет большой текст сильнее, чем позволяет вычисленная предложенным образом энтропия, поскольку сочетания букв тоже встречаются с неодинаковой вероятностью. Немного подробней - энтропия n-го порядка в [url]http://ru.wikipedia.org/wiki/Информационная_энтропия[/url]

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 95 ]  На страницу Пред.  1, 2, 3, 4, 5, 6, 7  След.

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: StepV


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group