2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




На страницу Пред.  1, 2, 3, 4, 5, 6, 7  След.
 
 
Сообщение08.11.2006, 22:30 
ну даже если так. Все равно мировые константы! Тоесть основные (базовые) операнды математики связаны ! Правда нуля нету... Вот так лучше:
${\rm e}^{{\rm i}\pi}+1=0}$

 
 
 
 пи корней из двух
Сообщение20.11.2006, 15:32 
Аватара пользователя
Вот какая мысль. Возьмем текст на русском языке. Буквы в нем встречаются с конкретной частотой р(а), ..., р(я). И можно подсчитать его энтропию -р(а)log р(а) - ... - р(я)log р(я), где log двоичный. Оказывается, в среднем по русскому языку эта энтропия весьма близка к пи корень из двух. Отсюда, подбирая текст, можно приблизить пи (или корень из двух) с любой степенью точности. Желателен только небольшой специализированный калькулятор. Возьмем, например, предложение "Отношение длины окружности к диаметру обозначается греческой буквой пи". Его энтропия равна 4 с четвертью (4.248...), откуда пи равно "библейским" трем (3.00...).

Правда, я не соображу что-то, возможен ли конечный текст, энтропия которого есть пи корень из двух в точности?

 
 
 
 Re: пи корней из двух
Сообщение20.11.2006, 15:40 
Аватара пользователя
geomath писал(а):
Правда, я не соображу что-то, возможен ли конечный текст, энтропия которого есть пи корень из двух в точности?

Мне это представляется безнадежной задачей из теории трансцендентных чисел.
В то же время, всякая мистика о таинственной связи языка и геометрии должна избегаться.

 
 
 
 
Сообщение20.11.2006, 19:48 
Аватара пользователя
geomath писал(а):
Оказывается, в среднем по русскому языку эта энтропия весьма близка к пи корень из двух. Отсюда, подбирая текст, можно приблизить пи (или корень из двух) с любой степенью точности.

Хм, а откуда эти данные - в среднем по русскому языку? Мне кажется, избыточность языка должна быть связана с восприятием, и по разным текстам она будет разная. Например, технический текст скорее всего пожмется архиватором больше, чем литературный из-за устойчивых словосочетаний. Анализатор написать не проблема, только мне тоже кажется, что язык с геометрией никак не связан, зато связь должна быть с помехоустойчивым кодированием.

 
 
 
 
Сообщение21.11.2006, 16:06 
Аватара пользователя
Вот, частоты встречаемости русских букв я взял отсюда:

http://ivr.webzone.ru/articles/alt_win/index.htm.

И подсчитал по ним энропию, которая получилась равной 4.444... (дальше идут еще две восьмерки, но они уже заведомо недостоверны). Поделив это на корень из 2, получаем 3.14... . И в принципе можно получить любое количество правильных знаков числа пи, подбирая нужный текст... Не знаю только, возможен ли конечный текст, дающий таким манером число пи в точности?

 
 
 
 
Сообщение21.11.2006, 20:18 
Аватара пользователя
geomath писал(а):
Не знаю только, возможен ли конечный текст, дающий таким манером число пи в точности?

Вот тут есть доказательство, что логарифм от рационального числа может быть иррациональным. Произведение иррационального на рациональное число не может дать рационального, иначе бы мы смогли представить иррациональное число дробью. Ну а сумма иррациональных способна быть как рациональной, так и нет. Так что, по-видимому, число $\pi$ точно представить все же можно (правда, там еще и вероятности взаимозависимы, но думаю, что это не должно являться ограничением).

geomath писал(а):
И подсчитал по ним энропию, которая получилась равной 4.444... (дальше идут еще две восьмерки, но они уже заведомо недостоверны). Поделив это на корень из 2, получаем 3.14...

Может Вы и правы, но разобраться, откуда там берется $\pi$, нелегко. Для этого нужно залезть в это помехоустойчивое кодирование (по моему предположению) и поискать там в формулах $\pi$ и $\sqrt 2$. Но при этом нужно иметь ввиду, что язык формировался в основном в устной форме, поэтому анализировать, по идее, надо бы аудиосигнал, а там элементов гораздо больше, нежели букв - одна и та же буква в разных слогах будет звучать иначе. Дело все более запутывается...

Хотя сам факт, что, возможно, частота встречаемости букв связана с $\pi$ - очень интересен, и у меня нет идеи - как это получилось. Возможно, все же, выборка была не репрезентативной (126 Kb неизвестного текста), и энропия варьируется в таких пределах, что захватывает и указанное Вами соотношение...

 
 
 
 
Сообщение21.11.2006, 20:30 
Аватара пользователя
:evil:
Хм. А Вам не показалось, что 4.444… очень похоже на $40/9$?

Вообще, поиск подобных закономерностей — весьма непродуктивное занятие. Хотя бы потому, что статистика неточна, зависит от времени (менятся язык, меняются тексты. Не говоря уж — о ужас! — о реформах орфографии), зависит от методоллогии (например, текст учитывать однократно, или пропорционально тиражу? — и то и другое мотивировано).

Добавлено спустя 3 минуты:

:evil:
AlexDem писал(а):
Вот тут есть доказательство, что логарифм от рационального числа может быть иррациональным.

Может. А может и не быть. И это все абсолютно неважно. Поскольку практически единственный способ извлечь информацию из принадлежности к классу — это привести рассуждение к противоречию. А у Вас противоречия нет, так что и информацию не извлечь.

 
 
 
 
Сообщение21.11.2006, 21:20 
Аватара пользователя
незваный гость писал(а):
Может. А может и не быть. И это все абсолютно неважно. Поскольку практически единственный способ извлечь информацию из принадлежности к классу — это привести рассуждение к противоречию. А у Вас противоречия нет, так что и информацию не извлечь.

Так я и не доказывал, что энтропия в любом случае будет выражаться иррациональным числом, а лишь то, что она может выражаться таким числом. По Вашему - доказательство неверно?

 
 
 
 
Сообщение21.11.2006, 22:32 
Аватара пользователя
:evil:
AlexDem писал(а):
Так я и не доказывал, что энтропия в любом случае будет выражаться иррациональным числом, а лишь то, что она может выражаться таким числом. По Вашему - доказательство неверно?

Доказательство может быть верное. Но доказываемы факт не интересен — что энтропия может быть иррациональным числом (а може и не быть). Мне представляется весьма затруднительным применить это «может быть» знание по существу.

Другое дело, если бы мы доказали, что энтропия всегда рациональна или всегда иррационально. Тогда мы могли бы отмести некоторое количество кандидатов.

А так… Для того, чтобы доказать, что энтропия может быть иррациональна, достаточно привести пример о двух буквах с частотами 1/3 и 2/3. Для доказательства возможной рациональности достаточно привести пример об одной букве. В целом, малоинтересный факт.

 
 
 
 
Сообщение22.11.2006, 13:22 
Аватара пользователя
незваный гость писал(а):
Доказательство может быть верное. Но доказываемы факт не интересен — что энтропия может быть иррациональным числом (а може и не быть).

Ну, то доказательство, что я привел, интересно прежде всего для меня :) Вывод, правда, не совсем верен - вероятность того, что с помощью конечного текста мы получим $\pi$ точно, стремится к нулю из-за дискретизации - хотя мы и попадаем в иррациональные числа, само $\pi$ мы можем просто перешагнуть.

Гораздо интересней рассмотреть бесконечный текст - какова вероятность того, что мы сможем задать $\pi$ точно с помощью произвольного бесконечного текста? Пусть мы пишем в файл мантиссу $m$ числа $q$, длина последовательности = $n$. Тогда само число можно представить в виде:
$$q = \frac m {10^n}$$.

Для простоты уберем энтропию и поставим вопрос - можно ли представить $\pi$ точно с помощью такой последовательности произвольной длины в виде:
$\pi = r * q$,

где $r \in R$ - произвольное не "особенное" число, например $\sqrt 2$ (под "особенным" здесь понимается такое число, умножение которого на рациональное дает $\pi$).

Очевидно, что меняя цифры в бесконечности последовательности мы получим некоторое множество чисел Q. Если это множество рациональных чисел, то множество $r * Q$ будет счетным, следовательно вероятность попасть в $\pi$ будет такой же, как и в случае конечной последовательности.

С другой стороны, мы можем принять $r = 10$, которое явно не "особенное", а в файл записать бесконечную последовательность, представляющую собой точное значение числа $\pi$...

Хотелось бы найти здесь ошибку!

Добавлено спустя 20 минут 15 секунд:

AlexDem писал(а):
Хотелось бы найти здесь ошибку!

Ага, уже нашел - множество Q - не счетно.

Тогда можно сказать, что вероятность попасть в $\pi$ будет экспоненциально расти от 0 до 1 при росте длины текста от 1 до $\infty$.

Если представить часть экспоненты слева от оси OY, и свернуть левую координатную полуплоскость в цилиндр бесконечного радиуса, то справа от OY мы увидим поведение вероятности на конечных последовательностях, а слева - на бесконечных. Например, можно посмотреть, какова будет вероятность в точке $\infty - 1$ :)

 
 
 
 
Сообщение23.11.2006, 14:28 
Аватара пользователя
AlexDem писал(а):
Возможно, все же, выборка была не репрезентативной (126 Kb неизвестного текста), и энропия варьируется в таких пределах, что захватывает и указанное Вами соотношение...

Текст вполне репрезентативен, поскольку обычно считается, что указанная энтропия составляет ~ 4.4.

И то, что пи получается здесь "негеометрически", тоже не должно смущать. Скорее должно смущать, что энпропия - размерная величина, в битах, поскольку берется двоичный логарифм. Однако двойка и корень квадратный из нее замечательны и сами по себе, чтобы обратить на себя внимание и не остановиться на 40/9; пожалуй, пойду организую от этом отдельную ветку и адресую ее Котофеичу!

незваный гость писал(а):
В целом, малоинтересный факт.

Смотрите, можно организовать интересную математическую игру, возможно даже коммерчески значимую. В окошко специализированного калькулятора вводится случайно выбранный текст, в котором разрешается изменить, например, не более 10 слов или букв (это место надо додумать), чтобы получить пи с рекордной точностью. Можно даже проводить соревнования на время или на результат за фиксированное время. :)

 
 
 
 
Сообщение23.11.2006, 14:39 
Аватара пользователя
geomath писал(а):
И то, что пи получается здесь "негеометрически", тоже не должно смущать. Скорее должно смущать, что энпропия - размерная величина, в битах, поскольку берется двоичный логарифм.

То, что не геометрически - это как раз интересно (просто здесь большая проблема с получением точного значения). Величина эта безразмерная, как, например, 10 штук.

 
 
 
 
Сообщение23.11.2006, 14:59 
Аватара пользователя
У cepesha такой калькулятор есть, нужно только добавить вычисление энтропии.

http://dxdy.ru/viewtopic.php?p=41525#41525

 
 
 
 
Сообщение23.11.2006, 15:06 
Аватара пользователя
AlexDem писал(а):
Величина эта безразмерная, как, например, 10 штук.


Энтропия считается размерной величиной. Размерность действительно связана с выбором основания логарифма и совпадает с размерностью информации. Если логарифм двоичный, то энтропия и информация меряется в битах, если натуральный - то в натах.

 
 
 
 
Сообщение23.11.2006, 16:16 
Аватара пользователя
PAV писал(а):
Энтропия считается размерной величиной.

Так можно и штуки десятками посчитать - получим меньшее значение деци-штук. Что-то вы меня совсем запутали :)

Добавлено спустя 55 минут 15 секунд:

Кстати, хороший архиватор пожмет большой текст сильнее, чем позволяет вычисленная предложенным образом энтропия, поскольку сочетания букв тоже встречаются с неодинаковой вероятностью. Немного подробней - энтропия n-го порядка в [url]http://ru.wikipedia.org/wiki/Информационная_энтропия[/url]

 
 
 [ Сообщений: 95 ]  На страницу Пред.  1, 2, 3, 4, 5, 6, 7  След.


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group