2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3, 4, 5  След.
 
 
Сообщение28.08.2008, 17:14 
Заслуженный участник


08/04/08
8562
Бодигрим, согласен! Я такое у Каца, кажется, читал. Там был вывод формулы для $\varphi (n)$ исходя из независимости делимости целого на разные простые числа.

Зато в силу законов логики следует приписать природе либо детерминизм, либо индетерминизм.

epros! Насчет случайных событий. Их, видимо, легче сводить к случайным числам. А вообще согласен.
Я хотел брать именно те последовательности (пока ограничусь этим, хотя это и не необходимо),
которые можно задать. Я вот могу взять $x_n = sin ^2 (n)$. Все. Распределение, а с ним и все остальное есть.

Я не знаю, насколько имеет смысл задавать вопрос, но все же: насколько обратимо это соотношение "детерминированного" (заданного формулой) и случайного?
Вот была недавно тема про точки Фейнмана. Мне вот чисто из таких вероятностных соображений видится, что таких чисел с такими точками - хоть пруд пруди, почти все.

Вот, например, я убежден, что всякий, кто выписывал ряд простых чисел, тому интуитивно ясно, что существует бесконечное множество простых вида $p=an+b, gcd(a,b)=1$.
А объяснение этому с этой точки зрения дожно быть простое. Последовательность $p  \mod a$ "случайна", поэтому $p \mod a$ принимает все значения (ну кроме 0).
Причем вероятность выпадения нескольких одинаковых значений (не подряд, а вообще) ненулевая.
Поэтому теорема Дирихле о бесконечности числа простых вида $an+b$ должна быть верна.
Кроме того, даже плотность каждого из этих чисел асимптотически эквивалентна этой вероятности ($\frac{1}{\varphi (a)}$).
Остается только нужным образом определить понятие "случайности".
Не находите? Как Вы считаете?

 Профиль  
                  
 
 
Сообщение29.08.2008, 10:06 
Заслуженный участник
Аватара пользователя


28/09/06
10983
Sonic86 писал(а):
Зато в силу законов логики следует приписать природе либо детерминизм, либо индетерминизм.

В силу закона исключённого третьего что ли? Как раз самый спорный из законов. Согласно ему на любой вопрос должен быть ответ либо "да", либо "нет". А если я скажу, что вопрос не имеет смысла и ответа не существует?

Sonic86 писал(а):
Я вот могу взять $x_n = sin ^2 (n)$. Все. Распределение, а с ним и все остальное есть.

Это не распределение, а последовательность. Распределение - это:
$F(x) = P[x_i < x]$, где $x_i$ - это $i$-тая реализация случайного числа $x$.

Конечно же Вы можете по Вашей последовательности оценить "плотность попадания" значений $x_i$ в любой диапазон, но это всё равно будет не плотность вероятности, поскольку для любого индекса последовательности $i$ определены не "вероятности попадания", а точное значение.

Sonic86 писал(а):
Я не знаю, насколько имеет смысл задавать вопрос, но все же: насколько обратимо это соотношение "детерминированного" (заданного формулой) и случайного?

Ни насколько. По распределению или, иначе говоря, по функции, определяющей "плотность попадания", формулу последовательности однозначно восстановить невозможно. Например, последовательность $x_n = cos ^2 (n)$ будет иметь ту же формулу для оценки "плотности попадания", что и Ваша последовательность.

В этом и весь смысл: Теория вероятностей описывает то, что нельзя описать точно.

Sonic86 писал(а):
Остается только нужным образом определить понятие "случайности".
Не находите? Как Вы считаете?

Теория вероятностей определяет это понятие наиболее подходящим образом. Сводить его к последовательностям испытаний - это, извините, профанация.

 Профиль  
                  
 
 
Сообщение29.08.2008, 16:58 
Заслуженный участник
Аватара пользователя


23/07/05
17989
Москва
Sonic86 в сообщении #141290 писал(а):
Зато в силу законов логики следует приписать природе либо детерминизм, либо индетерминизм.


Причём здесь вообще законы логики?

 Профиль  
                  
 
 
Сообщение29.08.2008, 17:20 
Заслуженный участник


08/04/08
8562
Немного в другую сторону.

По Зиновьеву событие случайно (предикат С), если возможно, что оно произойдет и возможно, что оно не произойдет.

Опять же по Зиновьеву: фатализм есть концепция мира, согласно которой все происходящее в мире происходит с необходмостью.
Будучи распространен на будущее он ведет к концепции предопределенности.
Эта концепция не есть нечто такое, с чем можно спорить как с ондой из гипотез науки.
Она есть результат двусмысленности предикатов M и N (возможно и необходимо соответственно).
Согласно самим определениям предикатов возможности и необходимости верны лишь такие утверждения А:
$x \vdash M(sx)$ $N(sx) \vdash x$
То есть "Существующее возможно" и "Необходимое существует или будет существовать", а утверждения В:
$x \vdash N(sx)$ $M(sx) \vdash x$
неверны, то есть неверны утверждения "Если нечто существует, то с необходимостью" и "Если нечто возможно, то оно существует".
Утверждения А верны, а утверждения В неверны не в силу какого-то опытного изучения мира, а в силу определений терминов M и N.
Последние вводятся в употребление именно такими...

Добавлено спустя 12 минут 4 секунды:

To epros:
Никакой это не спорный из законов.
Все зависит от определения отрицания.
Я вам позже подробно напишу. Если понимать отрицание как внутреннее (по Зиновьеву), то да - он неверен. А если как внешнее - то он верен.
Мне показалось, что термин "индетерминизм" через внешнее отрицание. Если так, то то, что я сказал верно. Если же как у вас (возможность различения отсутствия смысла), то да - не работает.

 Профиль  
                  
 
 
Сообщение31.08.2008, 15:32 
Заслуженный участник


08/04/08
8562
То epros:

Может это и профанация. Я не развивал общих утверждений, но определенно знаю, что смысл в этом хотя бы практически есть.
Например, генераторы случайных чисел (ну или псевдослучайных - я тут на внутреннее строения термина не смотрю - обычно не с чем сравнивать)
Я не хочу все сводить к последовательностям случ чисел (разве что события). я хочу только ограничиться их рассмотрением. Но в принципе это ограничение вряд ли существенно.
Вот нас учили так: если комп генерит ГПСЧ х1, х2, ... в интервале от 0 до 1, то матожидание приближается к 1/2, дисперсия к 1/12, корелляция быстро падает к нулю, число поворотных точек стремится 2/3 (я даже как-то это почти проверил), спектральная плотность приближается к дельта-функции (белый шум) итп.
Это - для самого лучшего генератора, универсального. Всем этим критериям фиг удовлетворишь. Но для частных случаев вполне можно строить более кривые генераторы.
Вот линейный конгруэтный генератор дает очень хороший вариант. Там например, нет повторений, пока не будут выданы все значения и каждое следующее значение не особо похоже на предыдущее.
А вот если я занимаюсь перебором на компе, то это мне и надо и достаточно и даже лучше, чем когда значения повторяются и невозможно вынести оценку типа, мол перебор вероятностный, поэтому никогда нельзя точно сказать, что он прошелся по всем значениям.
И обычно такие глюки приписывают всем вероятностным алгоритмам и корят их за это (алгоритмы) - мол, существенный недостаток, понимаешь.

Дальше. Вот Вы говорите, что тервер описывает то, что нельзя описать точно. Но ведь тервер может описывать и то, что можно описать точно, почему нет (хотя, конечно, это описание часто гораздо хуже, чем детерминированное).
Вот я у Вас спрошу, сколько примерно будет $\sin2 + \sin3 +\sin5 + \sin7 + ... + \sin97$, и Вы мне скорее всего скажете, что будет около 0, погрешшность около 1.
(Попробую подсчитать. Получается: среднее -2,82 (плохой пример вышел), а с.к.о. = 0,71).
В силу "плохости" описания детерминированных объектов как вероятностных, тут в лучшем случае возможны только какие-то общие, качественные утверждения.
(Про индексы: если определены точные значения, то определены и вероятности.)
Ведь тервер не для своих построений не использует случайность вообще. Там вообще нет такого определения.
Есть определение случайной величины, случайного события, элементарного события. Но там вот этот смысл случайного не используется.

Я согласен, что по распределению восстановить исходную функцию невозможно.
Но мне хотелось получать по каким-то вероятностным соображениям какие-то точные суждения (пусть даже общие).
Вот тривиальный пример: если последовательность $x_{n} \in (0,1)$ рассмотреть как последовательность значений случайной величины $X$. Каким-то образом умудриться найти плотность распределения и найти, например, что $P(1/2 < X < 1) = 1/100$, то тогда можно утверждать, что среди чисел $x_{n}$ имеется бесконечно много чисел с величиной от 1/2 до 1 (и даже: эти числа имеют положительную плотность)

Насчет распределения. Да, я не совсем правилньо употребил этот термин.
Я имел ввиду не функцию распределения, а именно распределение (хотя и функцию тоже можно найти). Оно есть. Сейчас попробую найти (потренируюсь заодно).
Ясно, что $x_{n} = \sin^2(n) \in (0,1)$, $ \sin^2(n) = \sin^2(n \mod \pi)$. $n \in \mathbb{N} \Rightarrow (n \mod \pi)$ равномерно распределено на $(0, \pi)$.
Тогда, если $Y$ распределена равномерно на $(0, \pi)$, то для $sin^2(Y)$ распределение получается так:
$P(Y<y)=y/ \pi,  y \in (0, \pi)$. Функция распределения (график) центрально симметрична относительно точки ее пересечения с прямой $y=1/2$. Поэтому плотность вероятности будет симметрична (четна) относительно $x = \pi/2$.
$f(t) = \sin^2 t$ тоже симметрична относительно $t = \pi/2$. Поэтому будет достаточно расссмотреть случай $0<y< \pi/2$.
$0<y< \pi/2 \Rightarrow f(t) = \sin^2 t$ возрастает $\Rightarrow Y<y \Leftrightarrow  \sin^2 Y <  \sin^2 y$. $z = \sin^2 y, Z = \sin^2 z \Rightarrow$
$P(Y<y)=y/ \pi \Leftrightarrow P( \sin^2 Y <  \sin^2 y)=y/ \pi \Leftrightarrow P(Z < z) = y/ \pi$
$\Leftrightarrow P(Z < z) = y/ \pi,   z = \sin^2 y \Leftrightarrow P(Z < z) = \arcsin (\sqrt(z))/ \pi$.
Значение $y = \pi/2$ как раз дает вероятность 1/2. Для остальных значений функция распределения достраивается через симметрию.
Плотность вероятности $\varphi (z) = \frac{1}{2\pi \sqrt{z(1-z)}}$.
Как раз, так как волна синуса чаще у краев находится, то и плотность на границах возрастает.
Вот функция распределения.
(Кстати, распределение, видимо, термин интуитивный, наглядный, избыточный. Грубо говоря, как выглядит ось, если плотностью масс ее взять плотность вероятности).

То Someone: Вы писали: при чем тут законы логики?
А как Вы понимаете индетерминизм?

Чайковского прочитал. Довольно интересно! Спасибо! Часть мыслей из начала мне была известна, а остальное - нет.

 Профиль  
                  
 
 
Сообщение01.09.2008, 13:55 
Заслуженный участник
Аватара пользователя


28/09/06
10983
Sonic86 писал(а):
Она есть результат двусмысленности предикатов M и N (возможно и необходимо соответственно).
Согласно самим определениям предикатов возможности и необходимости верны лишь такие утверждения А:
$x \vdash M(sx)$ $N(sx) \vdash x$
То есть "Существующее возможно" и "Необходимое существует или будет существовать", а утверждения В:
$x \vdash N(sx)$ $M(sx) \vdash x$
неверны, то есть неверны утверждения "Если нечто существует, то с необходимостью" и "Если нечто возможно, то оно существует".
Утверждения А верны, а утверждения В неверны не в силу какого-то опытного изучения мира, а в силу определений терминов M и N.
Последние вводятся в употребление именно такими...

Э-ээ, не въехал. Это какой-то из вариантов модальной логики что ли? В каком смысле здесь употреблены значки $\vdash$?

Причём здесь вообще возможное и необходимое, если речь просто идёт о событии, о факте которого нельзя достоверно утверждать, но нельзя и достоверно его отрицать? Например, "сегодня по дороге домой я упаду (хотя бы раз)": Я не могу это достоверно утверждать или отрицать. Но зачем мне тут вводить дополнительный уровень суждений о "возможном" или "необходимом"?

Sonic86 писал(а):
Никакой это не спорный из законов.
Все зависит от определения отрицания.
Я вам позже подробно напишу. Если понимать отрицание как внутреннее (по Зиновьеву), то да - он неверен. А если как внешнее - то он верен.
Мне показалось, что термин "индетерминизм" через внешнее отрицание. Если так, то то, что я сказал верно. Если же как у вас (возможность различения отсутствия смысла), то да - не работает.

А определение отрицания Вы к чему затронули? В формальной теории отрицание - это просто дополнительный значок перед утверждением. Если такое высказывание доказано, то считается, что утверждение опровергнуто. В конструктивной логике (в том её варианте, который вообще использует отрицание) доказательством отрицания является процедура сведения утверждения к противоречию. И тот, и другой подход прекрасно "дружат", т.е. уживаются в рамках одной математики.

Но всё это не имеет никакого отношения к закону исключённого третьего, который есть в классической (Аристотелевой) логике, но которого, например, нет в конструктивной логике.

Sonic86 писал(а):
Вот нас учили так: если комп генерит ГПСЧ х1, х2, ... в интервале от 0 до 1, то матожидание приближается к 1/2, дисперсия к 1/12, корелляция быстро падает к нулю, число поворотных точек стремится 2/3 (я даже как-то это почти проверил), спектральная плотность приближается к дельта-функции (белый шум) итп.
Это - для самого лучшего генератора, универсального. Всем этим критериям фиг удовлетворишь.

Странно. Я полагал, что большинство нормальных генераторов по этим признакам как раз хорошо себя показывают.

Sonic86 писал(а):
Вот линейный конгруэтный генератор дает очень хороший вариант. Там например, нет повторений, пока не будут выданы все значения и каждое следующее значение не особо похоже на предыдущее.

Неповторяемость для случайной последовательности как раз не есть критерий качества. Наоборот, чисто формально, если мы знаем, что значение не повторится, то это означает, что в последовательности есть фактор неслучайности. Другое дело, что многие генераторы ПСЧ устроены таким образом, что если значение повторится, то повторится и вся следующая за ним последовательность, а поэтому считается правильным, чтобы это происходило максимально редко.

Sonic86 писал(а):
Дальше. Вот Вы говорите, что тервер описывает то, что нельзя описать точно. Но ведь тервер может описывать и то, что можно описать точно, почему нет (хотя, конечно, это описание часто гораздо хуже, чем детерминированное).

Смысл теорвера начинается там, где нет точного знания. Где оно есть, можно гораздо проще обойтись и без него.

Sonic86 писал(а):
Ведь тервер не для своих построений не использует случайность вообще. Там вообще нет такого определения.
Есть определение случайной величины, случайного события, элементарного события. Но там вот этот смысл случайного не используется.

Случайность = случайное событие. Случайное событие (например, по Колмогорову) - это элемент алгебры событий.

Sonic86 писал(а):
Я согласен, что по распределению восстановить исходную функцию невозможно.
Но мне хотелось получать по каким-то вероятностным соображениям какие-то точные суждения (пусть даже общие).

Ха, любое утверждение о вероятностях в рамках теорвера является точным. Разумеется, с точки зрения той аксиоматики, которая заложена в условиях задачи. Например, утверждение о том, что вероятность выпадения монеты орлом =50% - это точное утверждение в рамках аксиоматики, согласно которой выпадения монеты орлом или решкой равновероятны.

Sonic86 писал(а):
Плотность вероятности $\varphi (z) = \frac{1}{2\pi \sqrt{z(1-z)}}$.

Для понимания того, что частота попадания в малый диапазон в данном случае будет выражаться производной арксинуса, сложных расчётов не требуется, это и так понятно. Но дело-то не в этом, а в том, что эта частота - не есть плотность вероятности. Вероятность возникает там, где мы не знаем, куда попадёт i-тое значение. А частота возникает там, где мы уже знаем, куда попало большое количество значений. Когда задана последовательность, мы точно знаем, куда попадёт i-тое значение. Вероятностная же задача совсем не такова.

 Профиль  
                  
 
 
Сообщение04.09.2008, 07:45 
Заслуженный участник


08/04/08
8562
То epros.

Насчет $x \vdash M(sx)$ $N(sx) \vdash x$.
Это логика Зиновьева (который не математик). Значок $\vdash$ читается как "логически следует".
Я так понял, это Вам (как и всем остальным) будет неинтересно. Хотя бы в силу большой простоты.
Насчет фатализма, возможности и необходимости я, видимо, тоже зря.
Просто мне показалось, что "индетерминизм" есть отрицание "детерминизма", причем такое отрицание, для которого выполняется закон исключенного третьего (по определению или еще как-то).
Скорее всего это не так. Видимо "индетерминизм" означает именно невозможность предсказания будущих событий (то есть, например, в него возможность недоказуемости предсказуемости и непредсказуемости, либо бессмысленность вопроса не входит)
Поэтому и отрицание затронул (у меня с ним тоже проблем нет, если что - лучше в отдельную тему).

Вы писали:
Странно. Я полагал, что большинство нормальных генераторов по этим признакам как раз хорошо себя показывают.

Я с этим согласен. Но вот если мне надо в коде писать генератор вручную, то это быстро не получится.
Я как-то 20 самых разнообразных генераторов брал и проверял по всем критериям. Они более-менее удовлетворяют этим требованиям, но не совсем (это мне преподаватель сказал), особенно с поворотными точками плохо было. Выше 0,62 у меня доля просто так не лезла.

Вы писали:
Неповторяемость для случайной последовательности как раз не есть критерий качества. Наоборот, чисто формально, если мы знаем, что значение не повторится, то это означает, что в последовательности есть фактор неслучайности. Другое дело, что многие генераторы ПСЧ устроены таким образом, что если значение повторится, то повторится и вся следующая за ним последовательность, а поэтому считается правильным, чтобы это происходило максимально редко.

Согласен. Но этот критерий - общий. Он строится для того, чтобы удовлетворить абсолютное большинство случаев. Соответственно, при этом он некоторые вещи не может. Ну я повторюсь: спустя любое сколь угодно долгое время нельзя теоретически утверждать (хотя практически можно, или если структуру генератора исследовал), что генератор принял все возможные значения.
Это я имею ввиду генератор, который случайно выдает элементы некого конечного множества.
Вот мне надо было перебирать все двоичные вектора длины n с k единицами. И вот для этой специфической задачи мне большинство качеств ГПСЧ не нужно было. А вот возможность полного перебора множества, которую можно теоретически утверждать, зная свойства генератора, мне нужна была. Хотя это действительно уже характеризует генератор как неслучайный.
Другими словами, мне нужен был рандомизированный перебор. Хотя бы, чтобы каждое следующее значение сильно отличалось от предыдущего. Иногда это нужно, когда ЦФ при дисркетном изменении аргумента изменяется ограниченно (часто - на 1).
Извините, если я это другими словами назвал. Просто в практике это вещи похожие.

Вы писали:
Смысл теорвера начинается там, где нет точного знания. Где оно есть, можно гораздо проще обойтись и без него.

Согласен. То, что я предлагаю обсудить можно назвать "псевдовероятностный подход". Дело-то пока не в названиях.

Вы писали:
Случайность = случайное событие. Случайное событие (например, по Колмогорову) - это элемент алгебры событий.

Согласен. Только смысл случайного как непредсказуемого в этом определении исчезает.
Вот я могу написать $P(p|n) = \frac{1}{p}$, где n - произвольное натуральное число. И случайными событиями окажутся просто варианты $p|n$ и $p \not |n$.

Вот я Чайковского (ссылка от Andrey Soloduhin http://www.kudrinbi.ru/public/431/index.htm) прочел. Там есть следующий текст:

В п.5 Колмогоров отметил, что ТВ является чем-то большим, нежели главой теории меры, только в силу наличия в ней понятия независимости. (Это значит, что все разговоры о зависимых случайных величинах обязаны иметь некоторые рамки, ограничивающие независимость, но не исключающие её.) А о связи меры с миром вообще у него не сказано.

Я прокомментирую (хотя это не совсем в тему, а для кого-то даже совсем не в тему):
В универе часто на курсе тервера решают задачи типа: 2 охотника стреляют в зайца. Первый попадает с вероятностью 0,5, а второй - с 0,7. Найти вероятность того, что одновременно выстрелив в зайца они получат добычу.
Нормальные люди такое решают на автомате примерно так: А={1-й попал}, В={2-й попал}. А и В независимы. Поэтому $p(AB)=0,35$, поэтому $p(X)=1-0,7-0,5+0,35=0,15$. Все.
Подходя с позиции логики такое решить нельзя. Почему А и В независимы? Потому что один охотник другому не мешает. Но это-то здесь не при чем. А и В независимы (по определению) $\Leftrightarrow$[\math] [math]$p(AB)=p(A)p(B)$. И теперь для того, чтобы утверждать, что А и В независимы, это соотношение надо проверить. А это невозможно - данных нет. Решение логика на этом закончится.
При использовании понятия "независимость" путаются 2 понятия: формальное "А и В независимы $Leftrightarrow$[\math] [math]$p(AB)=p(A)p(B)$" и интуитивное "А и В независимы, когда они причинно назависимы, несвязаны итп". И при путанице отождествляют.
А если требование "А и В независимы" вводить в задачу, то на практике-то это утверждение надо откуда-то брать. Мы его берем с такой легкостью именно исходя из второго понимания (как?! Вы берете его по другим соображениям? по каким?!)
А если второе понимание отбросить, то ничего не получится. А формально второго понимания нет. Его нет и в определении случайного события как элемента алгебры событий.
В классическом определении $p=m/n$ его тоже нет.
Ну в конце концов я обязательно вспомню метод Монте-Карло, который применяется для решения вполне определенных задач (взятие определенных многомерных интегралов со сложной границей).

Вы писали:
Ха, любое утверждение о вероятностях в рамках теорвера является точным.

Прошу прощенья, я неправильно выразился. Я имел ввиду не вероятностные суждения, а суждения, содержащие термины теории вероятностей (матожидание, корелляция, плотность вероятности, независимость).

Вы писали:
Но дело-то не в этом, а в том, что эта частота - не есть плотность вероятности. Вероятность возникает там, где мы не знаем, куда попадёт i-тое значение. А частота возникает там, где мы уже знаем, куда попало большое количество значений.

Пожалуйста. Я могу просто все назвать другими словами. Например: псевдо-функция распределения, псевдо-вероятность. Разницы-то при вычислении нет. Я считать псевдо-вероятности и псевдо-функции распределения буду таким же образом (ну или почти таким же, не знаю, не считал).
С частотой - не могу согласиться. Я же просто перебираю всю генеральную совокупность.

Вообще-то было бы что обсуждать. Идея-то явно не содержит противоречий. Только вот что с ней делать?

Вот, к примеру. Если $y_{n} = x_{n} \mod p$ - периодическая последовательность, то ее автокорелляция равна автокорелляции Т первых членов (зацикленных, Т - период).
Она не равна 0. $r = 0 \Leftrightarrow n(y_{1}y_{2} + y_{2}y_{3} + ... + y_{T}y_{1}) = (y_{1} + y_{2} + ... + y_{T})^2=0$.
Найдя частные производные по переменным, получим T линейных однородных уравнений вида $T(y_{j-1} + y_{j+1}) = 2(y_{1} + ... + y_{T})$.
Ранг матрицы равен T-1 (при $T>2$, иначе: 0 0 1 1 0 0 1 1 0 0 1 1 ...), значит все решения выражаются параметрически через 1 переменную.
Действительно, эти решения такие: $y_{j}=t, t \in \mathbb{R}$. Значит других решений нет. (Тут Вы наверняка лучше меня бы решили).
Но если $(\forall j) y_{j} = t = const$, то $y_{n}$ - не является периодической. Если же Вы включаете постоянные функции в периодические, то есть другой аргумент - дисперсия $D(Y)$ тогда равна 0, а значит корелляция не определена.
Таким образом, $y_{n}$ - периодическая $\Rightarrow r(Y) \neq 0$.
Верно ли обратное?

Добавлено спустя 1 минуту 6 секунд:

Вот еще кое-что более-менее в тему.
Чтобы похожую тему не заводить пишу здесь. Но это с предыдущим мало связано, строго говоря - другая тема.

В обычной теории вероятностей (Колмогоров) определяются термины вероятности вида $P(A|H) = P(AH)/P(H)$, но термины событий вида A|H не определяются.
Термины вероятности вида $P(A|H)$ при этом трактуются как вероятности событий А при условии, что известно, что имеет место событие Н.
Из определения $P(A|H) = P(AH)/P(H)$ это никак логически не следует. Логически можно только утверждать, что величина $0 \leqslant P(A|H) \leqslant 1$ и то, что она выражает соотношение вероятностей событий $P(AH)$ и $P(H)$.
Хотя при решении задач это существенно используется. Но если в теории что-то существенно используется, то это надо хотя бы как-то формализовать
Можно попробовать определить термины вида A|H так, чтобы все нужные свойства сохранились. (Хотя бы ради интереса.)
Вообще нельзя рассматривать просто события А. Можно рассматривать их лишь как элементы вероятностного пространства. Поэтому вообще следовало бы писать $A_{\Omega}$, где $\Omega$ - вероятностное пространство.
Маленький примерчик. Всякий, кто пользовался диаграммами Эйлера для обозначения событий знает, что для строгого обозначения 1 события нужно рисовать 2 круга: "само" событие и универсальное множество (вероятностное пространство).
Если Вы мне не верите, попробуйте нарисовать на диаграмме Эйлера одновременно 3 разных события: А, Н и А|Н. У меня не получилось

Если обозначить $\Omega_{1} = \Omega \cap {H} = \Omega_{H}$, то можно определить $A|H = A \cap \Omega_{H}$.
Тогда, если А изначально было определено в $\Omega$: $A = A_{\Omega}$, то $A|H = A_{\Omega_{H}}$. При этом особая разница между событиями и условными событиями исчезает и остается только в вероятностном пространстве, где А было определено изначально. Но ввиду возможности разного определения эта разница практически никакая. Зато выделенное значение приобретает максимальное вероятностное пространство.

Назовем события А и В несвязанными, если $A = A_{\Omega_{1}}, B = B_{\Omega_{2}}$ и $\Omega_{1} \neq \Omega_{2}$ (Хотя возможно, что $\Omega_{1} \subset \Omega_{2}$).
Тогда если А и В несвязаны, то А и В независимы ($P(AB)=P(A)P(B)$). Чтобы корректно рассматривать термин $A \cdot B$, так как А и В определены в разных вероятностных пространствах надо ввести пространство $\Omega = \Omega_{1} \times \Omega_{2}$.
Надо положить $A := (X;Y) \in \Omega: X = A$ и $B := (X;Y) \in \Omega: Y = B$. Тогда это легко доказать.
Для люьбых А и Н события A|H и H несвязаны, поэтому независимы, поэтому $P(A|H \cdot H) = P(A|H)P(H)$.

Интересно, откуда тогда взять $A = A|H \cdot H$? Видимо, дело в том, что так как A|H и H - события разных вероятностных пространств. Ввиду того, что мы на самом деле работаем не с "самим" событием, а с парой событие-пространство (см. выше), то определение $A \cdot B$ как пересечения множеств не настолько естественно как кажется. Ведь если $A := (A; \Omega_{1}), B := (A; \Omega_{2})$, то полагая $A \cap B := (A; \Omega_{1}) \cap (A; \Omega_{2}) = (A \cap B; \Omega_{3})$, нужно еще определить, что такое $\Omega_{3}$.
То есть у нас операция $A \cdot B$ для событий разных вероятностных пространств оказывается неопределенной. Вот мы ее и определим так, чтобы $A = A|H \cdot H$, то есть у нас $\Omega_{3} := \Omega$ - более широкое простраство, которое включает в себя другое.

Ну, по индукции сразу $ABC...X = (ABC...X|BC...X) \cdot (BC...X|C...X) \cdot ...$, события несвязны, поэтому независимы, поэтому $P(ABC...X) = P(ABC...X|BC...X) \cdot P(BC...X|C...X) \cdot ...$

 Профиль  
                  
 
 
Сообщение04.09.2008, 10:32 
Заслуженный участник
Аватара пользователя


28/09/06
10983
Sonic86 писал(а):
Это логика Зиновьева (который не математик). Значок $\vdash$ читается как "логически следует".

А обыкновенный значок нельзя было употребить? $T \vdash S$ я, вообще-то привык читать как: "Утверждение $S$ доказано в теории $T$".

Sonic86 писал(а):
Я так понял, это Вам (как и всем остальным) будет неинтересно. Хотя бы в силу большой простоты.

Простоты? Да Вы (или Зиновьев?), по-моему, разводите излишнюю сложность на пустом месте. Модальная логика может быть и интересная вещь с точки зрения определённых приложений, но здесь-то она к чему пришита?

Sonic86 писал(а):
Насчет фатализма, возможности и необходимости я, видимо, тоже зря.
Просто мне показалось, что "индетерминизм" есть отрицание "детерминизма", причем такое отрицание, для которого выполняется закон исключенного третьего (по определению или еще как-то).

Закон исключённого третьего выполняется или не выполняется не в зависимости от конкретного понятия, а в зависимости от используемой логической системы. Пояснение - далее.

Sonic86 писал(а):
Видимо "индетерминизм" означает именно невозможность предсказания будущих событий (то есть, например, в него возможность недоказуемости предсказуемости и непредсказуемости, либо бессмысленность вопроса не входит)
Поэтому и отрицание затронул (у меня с ним тоже проблем нет, если что - лучше в отдельную тему).

Вот попробуйте предсказать такое "будущее событие": "Будет найдено нечётное совершенное число". Речь идёт о нерешённой математической проблеме, причём "будет" следует понимать не в каком-либо ограниченном смысле (в пределах жизни отдельных людей или человечества в целом), а "в принципе".

Ответ классического математика таков: "Либо да, либо нет". Т.е. либо оное число существует, тогда оно в принципе когда-нибудь будет найдено, либо оно не существует, тогда возможность его найти в принципе когда-нибудь будет опровергнута. Это утверждение основано на законе исключённого третьего: На вопрос о существовании нечётного совершенного числа должен существовать один из двух ответов.

Ответ конструктивного анализа таков: Возможно, что никто никогда не получит одного из двух ответов, а значит, нельзя говорить и о том, что один из двух ответов "в принципе существует".

Вы определяете "индетерминизм" как отрицание "детерминизма". И это правильно. Но даже если Вы строго формализуете понятие "детерминизм", это ещё не гарантирует, что кто-нибудь когда-нибудь получит однозначный и окончательный ответ ("да" или "нет") на вопрос о том, существует ли он.

А Вы эдак сходу начали с утверждения, что "в силу законов логики" существует либо детерминизм, либо индетерминизм...

Sonic86 писал(а):
То, что я предлагаю обсудить можно назвать "псевдовероятностный подход". Дело-то пока не в названиях.

Приставка "псевдо" ничего не меняет. Либо вероятности заданы, и тогда мы имеем вероятностную задачу, либо нет.

Sonic86 писал(а):
Вы писали:
Случайность = случайное событие. Случайное событие (например, по Колмогорову) - это элемент алгебры событий.

Согласен. Только смысл случайного как непредсказуемого в этом определении исчезает.

Не понимаю, какой ещё "смысл" Вам нужен? Вот имеется простейшая алгебра из двух несовместных событий: "монета упадёт орлом" и "монета упадёт решкой". И на этих событиях заданы две вероятности по 50%. Какую ещё "непредсказуемость" Вы желаете получить? Если Вы имеете возможность предсказать выпадение монеты - то и флаг Вам в руки, предсказывайте, вероятностная задача Вам в этом случае не нужна. А если Вы такой возможности не имеете, то результат выпадения монеты и будет для Вас "непредсказуемым".

Sonic86 писал(а):
Вот я могу написать $P(p|n) = \frac{1}{p}$, где n - произвольное натуральное число. И случайными событиями окажутся просто варианты $p|n$ и $\not p|n$.

Не понял.

Sonic86 писал(а):
В п.5 Колмогоров отметил, что ТВ является чем-то большим, нежели главой теории меры, только в силу наличия в ней понятия независимости. (Это значит, что все разговоры о зависимых случайных величинах обязаны иметь некоторые рамки, ограничивающие независимость, но не исключающие её.) А о связи меры с миром вообще у него не сказано.

Ну и что? ТВ является "чем-то большим", нежели главой теории меры. Она является специфической главой теории меры, имеющей для нас особое значение.

Sonic86 писал(а):
Почему А и В независимы? Потому что один охотник другому не мешает. Но это-то здесь не при чем. А и В независимы (по определению) $\Leftrightarrow$$ p(AB)=p(A)p(B)$. И теперь для того, чтобы утверждать, что А и В независимы, это соотношение надо проверить. А это невозможно - данных нет. Решение логика на этом закончится.

Почему закончится? Независимость - это просто начальное условие в задаче. Априорные исходные данные. Реальной ситуации это может и не соответствовать, но это проблема того, кто применяет задачу к реальной ситуации. Это - обычное дело для любой задачи. Вот Вы рассчитываете траекторию движения искусственного спутника Земли и исходите при этом из априорной посылки, что двигатели у него будут выключены. А на деле-то это бы надо было сначала проверить...

Sonic86 писал(а):
При использовании понятия "независимость" путаются 2 понятия: формальное "А и В независимы $Leftrightarrow p(AB)=p(A)p(B)$" и интуитивное "А и В независимы, когда они причинно назависимы, несвязаны итп". И при путанице отождествляют.

Да бросьте Вы, зачем тут нужно вводить какие-то лишние сущности? Теоретико-вероятностная независимость определяется известной формулой. Любое отклонение от неё - это тот или иной вид зависимости, вплоть до однозначной функциональной связи.

Sonic86 писал(а):
А если требование "А и В независимы" вводить в задачу, то на практике-то это утверждение надо откуда-то брать. Мы его берем с такой легкостью именно исходя из второго понимания (как?! Вы берете его по другим соображениям? по каким?!)
А если второе понимание отбросить, то ничего не получится. А формально второго понимания нет. Его нет и в определении случайного события как элемента алгебры событий.

Да ниоткуда его не нужно брать! Это просто априорное предположение (аксиома), которое мы закладываем на свой страх и риск в тех случаях, когда более подробное исследование нецелесообразно. Почему мы решаем, что выпадения орла и решки равновероятны? Да просто потому, что у нас нет оснований для того, чтобы предпочесть одно другому. Поэтому мы закладываем в исходные условия задачи самое "слабое" предположение. Почему мы считаем, что результат второго испытания при бросании монеты независим от результата первого испытания? Да просто потому, что у нас нет оснований закладывать в задачу какую бы то ни было зависимость между ними. Вот и всё. С независимостью всё точно так же, как и со всеми прочими исходными предположениями.

Sonic86 писал(а):
Вы писали:
Ха, любое утверждение о вероятностях в рамках теорвера является точным.

Прошу прощенья, я неправильно выразился. Я имел ввиду не вероятностные суждения, а суждения, содержащие термины теории вероятностей (матожидание, корелляция, плотность вероятности, независимость).

Это всё величины, выражаемые через вероятности. А о вероятностях, как я уже сказал, ТВ высказывается в строгом формально-логическом смысле (хотя эти высказывания и могут быть основаны на исходных допущениях, за которые мы сами несём ответственность).

Sonic86 писал(а):
Пожалуйста. Я могу просто все назвать другими словами. Например: псевдо-функция распределения, псевдо-вероятность. Разницы-то при вычислении нет. Я считать псевдо-вероятности и псевдо-функции распределения буду таким же образом (ну или почти таким же, не знаю, не считал).

Дело не в том, как называть. Если Вы оставите только вычисленную Вами частоту, приняв её по определению за плотность вероятности, и забудете при исходную последовательность, то Вы получите вероятностную задачу. Но это просто означает, что Вы выкинете часть исходной информации.

Sonic86 писал(а):
С частотой - не могу согласиться. Я же просто перебираю всю генеральную совокупность.

:?: :?: С чем Вы не можете согласиться?

Sonic86 писал(а):
В обычной теории вероятностей (Колмогоров) определяются термины вероятности вида $P(A|H) = P(AH)/P(H)$, но термины событий вида A|H не определяются.

Вы ошибаетесь. События вида $A|H$ - это элементы новой алгебры событий (в которой $H$ является достоверным событием).

Sonic86 писал(а):
Термины вероятности вида $P(A|H)$ при этом трактуются как вероятности событий А при условии, что известно, что имеет место событие Н.
Из определения $P(A|H) = P(AH)/P(H)$ это никак логически не следует.

А что же ещё должно следовать из определения? :shock:
Мы определили новую алгебру событий и задали на ней вероятности. Что Вам ещё нужно?

Sonic86 писал(а):
Вообще нельзя рассматривать просто события А. Можно рассматривать их лишь как элементы вероятностного пространства. Поэтому вообще следовало бы писать $A_{\Omega}$, где $\Omega$ - вероятностное пространство.

Можете вместо "просто $A$" писать $A|\Omega$. Просто обычно это опускают, ибо и так понятно.

Далее не обсуждаю, ибо Вы пытаетесь решить уже давно решённую проблему.

 Профиль  
                  
 
 
Сообщение04.09.2008, 11:28 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
epros писал(а):
Sonic86 писал(а):
В обычной теории вероятностей (Колмогоров) определяются термины вероятности вида $P(A|H) = P(AH)/P(H)$, но термины событий вида A|H не определяются.

Вы ошибаетесь. События вида $A|H$ - это элементы новой алгебры событий (в которой $H$ является достоверным событием).


Будучи согласен с epros во всем остальном, поправлю только здесь. Условная вероятность не означает перехода к новой алгебре событий, а это новая вероятностная мера на той же алгебре, на которой задана исходная мера $P$. В противном случае было бы некорректно употреблять запись $P(A|H)$ в случае, если $A$ целиком не содержится в $H$, а на самом деле это совершенно нормально.

Иногда вместо $P(A|H)$ удобно использовать запись $P_H(A)$, которая подчеркивает это обстоятельство. У нас была вероятность $P$, а теперь мы определили новую $P_H$, заданную ровно на тех же событиях. Событие $H$ в новой мере имеет вероятность 1, однако достоверным не является (т.к. достоверное событие по определению - это только $\Omega$).

Добавлено спустя 7 минут 19 секунд:

epros писал(а):
Sonic86 писал(а):
Термины вероятности вида $P(A|H)$ при этом трактуются как вероятности событий А при условии, что известно, что имеет место событие Н.
Из определения $P(A|H) = P(AH)/P(H)$ это никак логически не следует.

А что же ещё должно следовать из определения? :shock:


Опять-таки, соглашаясь с ответом epros, отмечу: следует. Если вероятность $P$ действительно "правильно" приближает наблюдаемые частоты событий при большом числе испытаний, то условная вероятность $P(\cdot|H)$ будет правильно приближать частоты событий, считаемые только по тем испытаниям, в которых происходит событие $H$. Это показывается элементарно. Так что название для данной величины строго соответствует тому содержательному смыслу, который мы в нее вкладываем.

 Профиль  
                  
 
 
Сообщение04.09.2008, 12:27 
Заслуженный участник
Аватара пользователя


28/09/06
10983
PAV писал(а):
epros писал(а):
События вида $A|H$ - это элементы новой алгебры событий (в которой $H$ является достоверным событием).


Будучи согласен с epros во всем остальном, поправлю только здесь. Условная вероятность не означает перехода к новой алгебре событий, а это новая вероятностная мера на той же алгебре, на которой задана исходная мера $P$. В противном случае было бы некорректно употреблять запись $P(A|H)$ в случае, если $A$ целиком не содержится в $H$, а на самом деле это совершенно нормально.

Иногда вместо $P(A|H)$ удобно использовать запись $P_H(A)$, которая подчеркивает это обстоятельство. У нас была вероятность $P$, а теперь мы определили новую $P_H$, заданную ровно на тех же событиях. Событие $H$ в новой мере имеет вероятность 1, однако достоверным не является (т.к. достоверное событие по определению - это только $\Omega$).

Не буду возражать против Вашей трактовки. Условную вероятность можно трактовать как новую меру на старой алгебре. Но вопрос был в том, как трактовать $A|H$, т.е. без указания меры. И такая трактовка - как события в новой алгебре - тоже возможна. И по-моему эта трактовка более интересна в том случае, если мы интерпретируем вероятности не как "вечный мировой закон", а как актуальное состояние знания: Появилась новая информация (о событии $H$) - вероятностное пространство пересмотрели (начиная с алгебры событий и заканчивая мерой).

 Профиль  
                  
 
 
Сообщение04.09.2008, 12:36 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
Возможно, но не очень удобно. Тогда выходит, что записи вида $P(\overline{H}|H)$ или $P(\Omega|H)$ будут некорректны. Будет нельзя говорить, например, об условной вероятности того, что первая из двух монет выпала решкой, при условии того что хотя бы одна из двух монет выпала решкой. А в формуле полной вероятности, получается, будут смешаны разные алгебры событий. Так лучше не делать.

 Профиль  
                  
 
 
Сообщение04.09.2008, 13:05 
Заслуженный участник
Аватара пользователя


28/09/06
10983
PAV писал(а):
Возможно, но не очень удобно. Тогда выходит, что записи вида $P(\overline{H}|H)$ или $P(\Omega|H)$ будут некорректны.

Непонятно почему. $\overline{H}|H = \emptyset|H$, а $\Omega|H = H|H$ (речь не только о равенстве вероятностей, а о тождестве элементов алгебры).

PAV писал(а):
Будет нельзя говорить, например, об условной вероятности того, что первая из двух монет выпала решкой, при условии того что хотя бы одна из двух монет выпала решкой.

Опять же, почему? Просто "первая монета выпала решкой" в алгебре событий, в которой обе монеты могут выпасть орлами и "первая монета выпала решкой" в алгебре событий, в которой они обе не могут выпасть орлами - это разные события. Поэтому добавка к событию указания на условие, при котором оно рассматривается, - $...|H$ - существенна.

PAV писал(а):
А в формуле полной вероятности, получается, будут смешаны разные алгебры событий.

А что в этом страшного?

Рассматривая в качестве "единственно правильной" только некую исходную алгебру, мы вынуждены продолжать рассматривать кучу событий меры нуль: Хотя однозначно признано, что динозавры давно вымерли, мы будем продолжать учитывать что будет, если вдруг один из них появится на улице.

 Профиль  
                  
 
 
Сообщение04.09.2008, 14:05 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
epros писал(а):
Непонятно почему. $\overline{H}|H = \emptyset|H$,


Ну как. Если мы перешли к новой алгебре, в которой $H$ является достоверным (т.е. включает в себя все элементарные исходы), то $\overline{H}=\Omega\backslash H$ состоит уже не из элементарных исходов в новом понимании, не является событием и поэтому использовать это множество в новом вероятностном контексте нельзя. Можно только $\emptyset$ и вообще только подмножества $H$, а право выходить за пределы $H$ мы теряем.

В общем, дело вкуса, конечно, этот вопрос не может привести к принципиальным ошибкам или разногласиям, но методологически мне лично переход к новой алгебре событий кажется неправильным (хотя действительно содержательно обосновать его можно так, как Вы сказали). И, еще раз отмечу, во всех курсах условная вероятность определяется как мера на той же алгебре событий.

 Профиль  
                  
 
 
Сообщение04.09.2008, 14:41 
Заслуженный участник
Аватара пользователя


28/09/06
10983
PAV писал(а):
во всех курсах условная вероятность определяется как мера на той же алгебре событий

Это неудивительно, поскольку традиционные курсы ТВ исходят из того, что вероятностное пространство определено раз и навсегда, а мы имеем право только выводить из него производные понятия.

PAV писал(а):
методологически мне лично переход к новой алгебре событий кажется неправильным

Но ведь алгебра такая есть? :)
А стало быть (рассуждая методологически) почему мы должны связывать себя одной, раз и навсегда выбранной алгеброй? Алгебра событий - это ведь вещь заведомо ситуационная, когда нам нужно, мы рассматриваем алгебру только из двух событий: "монета упадёт орлом" и "монета упадёт решкой", отвлекаясь от всего прочего. Но это не означает, что в мире нет других событий. Если мы вдруг решим, что на задачу выпадения монеты влияет тот факт, будут ли при этом трясти стол, то мы имеем право рассмотреть более широкую алгебру, включающую события, касающиеся тряски стола. А наличие дополнительной информации о тряске стола при этом может нам помочь повысить качество решения задачи о выпадении монеты.

 Профиль  
                  
 
 
Сообщение04.09.2008, 15:04 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
epros в сообщении #142612 писал(а):
Но ведь алгебра такая есть? Smile
А стало быть (рассуждая методологически) почему мы должны связывать себя одной, раз и навсегда выбранной алгеброй?


Да, такая алгебра есть. Но, рассуждая методологически, если Вы переходите к ней, то теперь уже то, что раньше обозначалось $\Omega$, $\overline{H}$ и проч - уже не являются событиями. Если Вы хотите понимать условную вероятность $P(\cdot|H)$ как меру на новой алгебре, то имеете право подставлять туда только элементы этой новой алгебры.

В рамках традиционного подхода мы можем иметь различные меры, но у них одна область определения, поэтому можно без опасения брать аргумент одной меры и подставлять в другую. А если для каждой меры еще и помнить, что они заданы на разных пространствах, то теоретическая работа с формулами сильно усложнится. Мы будем иметь $P(A)$, но обязаны будем писать $P(A'|H)$, указывая при этом, что $A'=A\cap H$.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 66 ]  На страницу Пред.  1, 2, 3, 4, 5  След.

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group