2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки


Правила форума


В этом разделе нельзя создавать новые темы.

Если Вы хотите задать новый вопрос, то не дописывайте его в существующую тему, а создайте новую в корневом разделе "Помогите решить/разобраться (М)".

Если Вы зададите новый вопрос в существующей теме, то в случае нарушения оформления или других правил форума Ваше сообщение и все ответы на него могут быть удалены без предупреждения.

Не ищите на этом форуме халяву, правила запрещают участникам публиковать готовые решения стандартных учебных задач. Автор вопроса обязан привести свои попытки решения и указать конкретные затруднения.

Обязательно просмотрите тему Правила данного раздела, иначе Ваша тема может быть удалена или перемещена в Карантин, а Вы так и не узнаете, почему.



Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3
 
 
Сообщение12.07.2008, 11:31 
Заслуженный участник


11/05/08
32166
Henrylee писал(а):
ewert писал(а):
Я бы всё же возразил. Первичным всё же является некий способ вычисления вероятности. Диктуемый опытом. И уже потом наводится порядок, когда этот способ распространяется на некую $\sigma$-алгебру.

Причем эта некая $\sigma$-алгебра уже имется (раньше чем мера), разве нет?

Да нет. Откуда ей взяться, пока она не построена? А строится она параллельно с расширением меры.

Henrylee писал(а):
А вспомните определение гауссовской меры на линейном пространстве.
Не помню. Вы имеете в виду попросту меру, заданную гауссовским распределением вероятностей -- или гауссовскую меру на каком-то функциональном пространстве?

bubu gaga писал(а):
В большинстве элементарных задач на вероятность, где омега конечна и даны вероятности элементарных событий, очень трудно оправдать необходимость поля.

Естественно. Если пространство событий конечно (или хотя бы счётно), то алгеброй событий можно считать попросту совокупность всех подмножеств вообще. Корячиться приходится именно с несчётными пространствами.

 Профиль  
                  
 
 
Сообщение12.07.2008, 13:53 
Заслуженный участник
Аватара пользователя


23/07/05
17973
Москва
Немножко по поводу возможной мотивации аксиом теории вероятностей.
Можно рассматривать вероятность как математическую модель относительной частоты события. Поэтому свойства вероятности должны быть такими же, как свойства относительной частоты.
Относительной частотой события $A$ в $n$ опытах называется отношение числа появлений $n_A$ события $A$ к числу проведённых опытов, то есть, $\frac{n_A}n$.
Относительная частота обладает следующими очевидными свойствами:
1) $\frac{n_A}n\geqslant 0$;
2) $\frac{n_{\Omega}}n=1$, где $\Omega$ - достоверное событие;
3) если события $A$ и $B$ несовместны, то $\frac{n_{A+B}}n=\frac{n_A}n+\frac{n_B}n$;
3') если события $A_1,A_2,\ldots,A_k,\ldots$ попарно несовместны, то
$$\frac{n_{\sum_{k=1}^{\infty}A_k}}n=\sum_{k=1}^{\infty}\frac{n_{A_k}}n$$.
Последнее свойство есть $\sigma$-аддитивность относительной частоты, и оно является тривиальным следствием предыдущего свойства (аддитивности), поскольку в $n$ опытах может произойти не более $n$ попарно несовместных событий, то есть, только конечное число. Поэтому сумма в правой части, на самом деле, содержит не более $n$ ненулевых слагаемых.

Можно пойти немного дальше. Предположим, что опыты у нас ставятся не как попало, а все в одинаковых условиях, так что шансы появления события в каждом опыте одни и та же и никак не зависят от результатов других опытов в этой серии.
В таких предположениях событие называется статистически устойчивым, если его относительная частота имеет предел при $n\to\infty$. Этот предел называется вероятностью события:
$$P(A)=\lim_{n\to\infty}\frac{n_A}n\text{.}$$

При таком подходе кажется само собой разумеющимся, что вероятность должна обладать такими же свойствами, что и относительная частота.

Однако это определение - плохое. Ясно, что "предел" в этм определении имеет весьма отдалённое отношение к пределу последовательности, изучаемому в курсе математического анализа. Поскольку члены последовательности в данном случае определяются с помощью вовсе не математической процедуры (случайных испытаний), то никаких предположений о поведении этой процедуры мы делать не можем. Если мы бросаем симметричную монету, интересуясь вероятностью выпадения одной из ей сторон, то нет никаких гарантий того, что в пределе получится $\frac 12$, или вообще что-нибудь получится. Никто не может запретить этой монете всегда падать одной и той же стороной - при всей её симметрии. Поэтому "предел" этот нуждается в специальном определении. Смысл этого предела описывается усиленным законом больших чисел для схемы Бернулли, и его формулировка в действительности требует, чтобы понятие вероятности уже было определено. Может быть, эту проблему и можно как-нибудь обойти, но я в эти вопросы никогда не вникал.

 Профиль  
                  
 
 
Сообщение12.07.2008, 14:34 
Заслуженный участник


11/05/08
32166
Someone писал(а):
Может быть, эту проблему и можно как-нибудь обойти, но я в эти вопросы никогда не вникал.

Да никак её не обойдёшь. Статистическое "определение" вероятности -- вещь сугубо лирическая. Опыт показывает, что во многих случаях относительная частота с ростом к-ва испытаний действительно стабилизируется. Это даёт основание приписать таким событиям числовую характеристику, называемую вероятностью. Аксиомы вероятности формально ниоткуда не следуют; неформально же, действительно, обосновываются соотв. свойствами частоты. А теорема Бернулли (о сходимости частоты по вероятности) лишь подтверждает разумность этой аксиоматики, но то, что стабилизация частот реально наблюдается на практике -- естественно, не доказывает и доказать не может.

Кстати, аксиома счётной аддитивности из обычной не следует.

 Профиль  
                  
 
 
Сообщение12.07.2008, 17:19 
Заслуженный участник
Аватара пользователя


23/07/05
17973
Москва
ewert писал(а):
Кстати, аксиома счётной аддитивности из обычной не следует.


Для вероятности (меры), конечно, не следует.

 Профиль  
                  
 
 
Сообщение12.07.2008, 17:48 
Заслуженный участник
Аватара пользователя


30/10/07
1221
Самара/Москва
ewert писал(а):

Henrylee писал(а):
А вспомните определение гауссовской меры на линейном пространстве.
Не помню. Вы имеете в виду попросту меру, заданную гауссовским распределением вероятностей -- или гауссовскую меру на каком-то функциональном пространстве?

Если точнее, на бесконечномерном. Там же никаких плотностей и функций распределения, как Вы знаете, нету. Поэтому определить гауссовская мера или нет можно только рассматривая линейные функционалы в качестве случайных величин, распределения которых и должны быть одномерными гауссовскими. Или же - рассматривая характеристический функционал меры. В обоих случаях без интерпретации с.в. как функций не обойтись.

 Профиль  
                  
 
 
Сообщение12.07.2008, 17:59 
Заслуженный участник


11/05/08
32166
а, так Вы-таки имеете в виду континуальные интегралы. Честно -- совершенно ничего не помню. Последний раз интересовался этим много-много лет назад, в глубоком детстве (т.е. примерно на выходе из универа). С тех пор сталкиваться не приходилось.

 Профиль  
                  
 
 
Сообщение13.07.2008, 20:39 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
bubu gaga писал(а):
И дав такую мотивацию я попытался сказать, что не стоит, переводя задачу из одной формулировки в эквивалентную ожидать, что появится новая информация (интегралы может быть упростятся, но не более).

Между прочим, в теории информации есть теорема о том, что если применять к наблюдаемым исходам некоторую функцию, то количество информации при этом не может увеличиться. Естественно, понятие "количество информации" при этом строго определено математически.

 Профиль  
                  
 
 
Сообщение14.07.2008, 17:01 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
ewert писал(а):
Да нет. Откуда ей взяться, пока она не построена? А строится она параллельно с расширением меры.


И все-таки я не соглашусь. То, что Вы говорите, относится к теории меры, где мы действительно одновременно с мерой строим максимально возможную систему множеств, на которых эту меру можно задать. Но в теории вероятностей принято по-другому. Там сначала берется некоторый достаточно простой класс событий, для которых мы потом захотим определять вероятности. На этот класс натягивается минимальная сигма-алгебра. Вероятность в этой процедуре никак не фигурирует. А уже после этого мы определяем вероятность для этих простых событий, после чего по теореме о продолжении однозначно продолжаем ее на минимальную сигма-алгебру. Мы не преследуем при этом цель максимально расширить множество событий одновременно с заданием меры.

Единственное исключение из этого правила - это геометрические вероятности, где в качестве событий берутся множества, измеримые относительно меры. Во всех остальных случаях мы к этому не стремимся.

Если Вы посмотрите, как излагал основы теории вероятностей сам Колмогоров или как это сделано в учебнике Ширяева, то убедитесь, что сначала определяется сигма-алгебра событий, а уже после этого, когда она зафиксирована, определяется мера.

В качестве подтверждения еще отмечу, что когда мы говорим в случайных величинах (например, абсолютно непрерывных), то в качестве сигма-алгебры событий на прямой берутся борелевские множества, а не более широкий класс измеримых по Лебегу, хотя можно было бы взять и его.

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 38 ]  На страницу Пред.  1, 2, 3

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group