2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




Начать новую тему Ответить на тему На страницу Пред.  1, 2, 3, 4, 5  След.
 
 
Сообщение04.09.2008, 16:43 
Заслуженный участник
Аватара пользователя


28/09/06
10413
PAV писал(а):
обязаны будем писать $P(A'|H)$, указывая при этом, что $A'=A\cap H$

Штрих здесь совсем не обязателен, ибо в записи уже есть $...|H$. Так что $A|H = A \cap H|H$, ибо в контексте заданного условия $H$ является достоверным событием.

Как раз указание события без указания условия представляется мне неправильным. Ибо кто может априорно знать, какова подразумеваемая "исходная" алгебра событий? Вы высказываете некие утверждения о некоторых событиях, например: "Пенсионеры, как правило, много путешествуют", забыв уточнить при этом условие, заложенное в контекст (речь идёт о гражданах США), а мне при этом остаётся только удивляться, что это совершенно не совпадает с моими представлениями (поскольку я подразумеваю граждан России). Каков выход? Заранее оговорить условия и не забывать приводить ссылку на них после вертикальной черты (во всех случаях, где её отсутствие может привести к недоразумениям).

 Профиль  
                  
 
 
Сообщение04.09.2008, 16:50 
Заслуженный участник


11/05/08
32166
PAV писал(а):
, то $\overline{H}=\Omega\backslash H$ состоит уже не из элементарных исходов в новом понимании, не является событием и

Я чего-то уж совсем тупой. Если Омега есть совокупность элементарных исходов (просто по определению, как пространство событий), и если если Аш есть также совокупность таких же исходов (будучи подмножеством Омеги, опять же по определению) -- то с какой стати дополнение к этому Аш не есть совокупность исходов?

...

 Профиль  
                  
 
 
Сообщение05.09.2008, 09:48 
Супермодератор
Аватара пользователя


29/07/05
8248
Москва
ewert в сообщении #142623 писал(а):
Если Омега есть совокупность элементарных исходов (просто по определению, как пространство событий), и если если Аш есть также совокупность таких же исходов (будучи подмножеством Омеги, опять же по определению) -- то с какой стати дополнение к этому Аш не есть совокупность исходов?


Мы говорим о том, что epros предлагал при рассмотрении условной вероятности перейти к новому вероятностному пространству, в котором $H$ будет достоверным событием, т.е. содержать все элементарные исходы. Остальные выкидываются из рассмотрения.

 Профиль  
                  
 
 
Сообщение05.09.2008, 15:38 
Заслуженный участник


08/04/08
8556
Если охота про логику - лучше отдельную тему.
Я замечу, что я модальную логику не знаю. Знаю только обычную матлогику (исчисление высказываний из обычного университетского курса, но она мне смешна) и логику Зиновьева. И рассуждать пытаюсь только из второй логики.
Будет лучше, если Вы сочтете меня неспециалистом, а разговоры со мной на эту тему - бесплодными.
Я уже понял, что к чему и уже писал: просто мне показалось, что "индетерминизм" есть отрицание "детерминизма", причем такое отрицание, для которого выполняется закон исключенного третьего (по определению или еще как-то).
Это я предположил, не спросив, так ли это и потому написал: Зато в силу законов логики следует приписать природе либо детерминизм, либо индетерминизм.
Это предположение я считаю неверным, то есть мне надо было уточнить у собеседников.
Но если предположение верно, то мое утверждение: "Либо детерминизм, либо индетерминизм" верно, так как оттуда следует логически.

Я писал не как Вы писали: Вы определяете "индетерминизм" как отрицание "детерминизма", а так:
Просто мне показалось, что "индетерминизм" есть отрицание "детерминизма", причем такое отрицание, для которого выполняется закон исключенного третьего (по определению или еще как-то).
Отрицаний - 2 штуки (в логической системе Зиновьева). Для одного выполняется закон исключенного третьего по определению, а для второго в общем случае - нет (только в случае введения двух значений истинности высказываний).
Поэтому если сказать, что я что-то определил как отрицание чего-то, не указав, какое отрицание конкретно, то можно сделать ошибку.


Вы писали:
Вы определяете "индетерминизм" как отрицание "детерминизма". И это правильно. Но даже если Вы строго формализуете понятие "детерминизм", это ещё не гарантирует, что кто-нибудь когда-нибудь получит однозначный и окончательный ответ ("да" или "нет") на вопрос о том, существует ли он.
Согласен. Но утверждению "Либо детерминизм, либо индетерминизм" это не противоречит.

То же самое и про конструктивного и классического математика.
Классический говорит: "Либо да, либо нет", а конструктивный: "Либо есть, либо нету, либо никто никогда не получит ни одного из двух ответов".
Здесь они тоже не противоречат друг другу. Они просто смотрят на вещь в разных аспектах (с разных точек зрения).
Классический математик употребляет внешнее отрицание, а конструктивный - внутреннее. Только у конструктивного взгляд детальнее.
Классическое "А верно" - то же, что и конструктивное "А верно".
Классическое "Неверно, что А" делится конструктивным на 2 варианта: "Либо верно, что не-А, либо неверно, что А, и неверно, что не-А" (второй вариант как раз содержит в себе возможность принципиальной невозможности доказать или опровергнуть это утверждение (сущ-ет нечетное совершенное число)).
Насчет существования детерминизма ничего не писал. Писал: "Либо детерминизм, либо индетерминизм".

Про тервер чуть позже напишу - еще читаю.
формулы в тексте поправил.

Что Вы понимаете под вероятностной задачей? Задачу, где заданы одни вероятности и надо найти другие?
Если так, то я опять не то имел ввиду.
Раз уж у меня с названиями плохо, то давайте вот так:
1. Я беру последовательность $x_{n}$ и нахожу у нее автокорелляцию.
2. Я беру последовательность $x_{n}$ и нахожу у нее функцию $f(x) = \lim \limits{m \to +\infty}{\frac{N(x_{n}=x, 1 \leqslant n \leqslant m)}{m}}$.
3. Я беру вполне упорядоченное конечное множество M, задаю функцию $f_{n}$, выдающую каким-либо образом элементы M и рассматриваю ее характеристики: среднее, дисперсию, число поворотных точек итп (анализ ГПСЧ).
4. Возможно делаю еще что-то подобное.
Как этот подход назвать? Я нахожу сходство (не термин, слово естественного языка) в этом подходе со способом решения задач в теории вероятностей и матстатистике.
Поэтому называю этот подход вероятностным. Так как термин "сходство" строго не определен, то мой вывод неточен и я не имею права его принять как точный. его можно отвергнуть.
Поэтому предлагаю это сделать Вам, чтобы не было недоразумений.
(Ну ясно, что так как я могу сделать то, что написал хоть с чем-то, то этот подход существует и это уже точно, поэтому отвергать его как противоречивый нельзя. (Зато его легко отвергнуть как бесполезный)).
Естественно, я часть информации выкину. Потому и подозреваю, что метод может быть бесполезным. Ну и ладно. Я может какие-то общие предположения рассматриваю.

Пусть А - эмпирический предмет, а В - абстракция от него Исследователем. Тогда А называется смыслом В (определение).
Вполне можно рассматривать употребление слов "монета" и "охотник" просто как неявные определения или аксиомы типа:
"события {монета упадет орлом} и {монета упадет решкой} независимы" и "события {охотник 1 попал в зайца} и {охотник 2 попал в зайца} независимы".
И работать с ними формально. Тогда у меня вопросов нет и я совершенно с вами согласен (это, кажется, называется "чистая математика").
И действительно никаких дополнительных сущностей слову "независимость" приписывать не надо, а аксиомы, описанные выше "которое мы закладываем на свой страх и риск в тех случаях, когда более подробное исследование нецелесообразно".
Только хочу заметить, что принимаем мы их именно "на свой страх и риск", так как если $p(A), p(A|H)$ - вероятности от 0 до 1, то $p(p(A)=p(A|H))=0$ (ну я не думаю, что тут могут быть какие-то неприличные распределения чисел $p(A)$ и $p(A|H)$).
то есть это - не "слабое", а "сильное" предположение (оно "слабое" только в силу частости его появления (не термин)). (это даже в общем случае верно: вероятнее, что соотношение не имеет места, чем имеет).

Я просто при решении таких задач всегда привлекал их смысл. "Охотник" был именно охотником, "монета" - именно монетой.
И можно было хотя бы неформально рассмотреть "общий случай для каждой ситуации".
Например, смысл "события {охотник 1 попал в зайца} и {охотник 2 попал в зайца} независимы" превращался в независимость стрельбы охотников друг от друга, что вполне возможно (а вот это, кстати, сомнительно. Стреляют-то они не одновременно, а заяц, услышав первый выстрел, начинает сматываться).
А смысл "события {монета упадет орлом} и {монета упадет решкой} независимы" можно было как-то физически проверить. Воздух имеет небольшую плотность, поэтому угловая скорость вращения монеты - почти константа. А так как монета падает орлом при $0<\varphi<\pi$ и падает решкой при $\pi<\varphi<2\pi$, то у нас получается равномерное распределение для $\varphi \in [0, 2\pi]$.
поэтому действительно есть причина тому, чтобы выпадение орла и решки было равновероятным (вот если ее в воде бросить, то - нет).
Наконец, извините, есть общеизвестный анекдот о том, что вероятность встретить динозавра на улице равна 1/2. Действительно, два исхода: {встретим} и {не встретим}, а никаких оснований принимать одно событие как более вероятное чем другое, у нас нет.

А вот насчет определения я посмотрю еще раз (вдруг я действительно забыл. У нас на лекциях терминов $A|H$ не определяли). посмотрю - отвечу на остальное.

To PAV: Да, действительно указанные Вами термины в моей трактовке будут некорректны. Я еще посмотрю, но очень возможно, что это неисправимо.
Хоть понимать буду, почему так не определяют.

Кажется нет. Обычные обозначения вводят в обычную колею. Я перепишу построения формально через пары и выложу.

 Профиль  
                  
 
 
Сообщение05.09.2008, 21:11 
Заслуженный участник


18/03/07
1068
Sonic86 писал(а):
Классический говорит: "Либо да, либо нет", а конструктивный: "Либо есть, либо нету, либо никто никогда не получит ни одного из двух ответов".


Маленькая поправка: в конструктивных системах обыкновенно имеет место конструктивное понимание дизъюнкции. Это метатеорема, выглядящая примерно так: $\vdash A \lor B\; \Leftrightarrow\;\; \vdash A\;\; \text{\it или}\;\, \vdash B$. То есть, если Вы озвучите второе из приведенных Вами утверждений, Вас попросят сказать, какая именно из альтернатив имеет место.

 Профиль  
                  
 
 
Сообщение07.09.2008, 12:15 
Заслуженный участник


08/04/08
8556
To luitzen: спасибо, не знал. Буду иметь ввиду.

В Колмогорове я определений терминов вида $A|H$ не нашел. Не нашел их в Ширяеве, Вентцель.
В Феллере и Гнеденко используется интуитивное понимание $A|H$, но определения нет. Или я не там смотрел? У Вас какой источник?
Я не говорю, что тут что-то сложно и непонятно. Тут все понятно. Непонятно только, почему таких определений нет.
Не буду переписывать - вроде правильно.
У меня получается что вообще термин А некорректен. Корректен $A_{\Omega}$. Поэтому термина $p(A|H)$ нету.
Я буду писать $(A, \Omega)$ (хотя бы что бы не было ассоциаций с $A| \Omega$).
Пусть $\Omega$ - вероятностное пространство, $A \subseteq \Omega$ (в противном случае термин некорректен).
Пару $(A, \Omega)$ будем называть событием $A$ в пространстве $\Omega$ (при условии $\Omega$).
Считаем, что $p(A, \Omega)$ - вероятность события $(A, \Omega)$, которая определяется как обычно.
Пусть $H \subseteq \Omega, \Omega_{H} = \Omega \cap H, A_{H} = A \cap H$.
Тогда корректны термины: $(A, \Omega), (A_{H}, \Omega_{H}), (A_{H}, \Omega)$ (аналоги $A, A|H, A \cap H$), а $(A, \Omega_{H})$ - некорректен.
$A = H \cdot A|H$ примет вид $(A, \Omega) = (H, \Omega) \cdot (A_{H}, \Omega_{H})$ или $(A, \Omega) = (H, \Omega) \cdot (A \cap H, \Omega \cap H)$.
Говорим, что $(A, \Omega_{1}), (B, \Omega_{2})$ несвязаны $\Leftrightarrow \Omega_{1} \neq \Omega_{2}$ (хотя возможно $\Omega_{1} \subset \Omega_{2}$).
Определим операцию $\cdot$ для событий так: $(A, \Omega_{1}) \cdot (B, \Omega_{2}) = (C, \Omega_{3})$, где $\Omega_{3} = \Omega_{1} \times \Omega_{2}$, а $C = \{ (X,Y): X=A, Y=B\} \subset \Omega_{3}$.
Тогда несвязные события независимы: $p(A, \Omega_{1}) \cdot (B, \Omega_{2}) = p(A, \Omega_{1})p(B, \Omega_{2})$.
При $\Omega_{1} = \Omega_{2}$ это в общем случае неверно.
Термины $\overline H|H, \Omega|H$ исходя из общего правила $A|H \to (A \cap H, \Omega \cap H)$ переписываются в виде $(\overline H \cap H, H \cap H) = (\emptyset | H), (\Omega \cap H, \Omega \cap H)$. Вероятности от них всех будут определены.
Смысл тоже сохраняется, если употреблять не "событие А", а "событие А при $\Omega$".
Итого: мне осталось неясным, почему термины вида A|H не формализуются.

Последовательность 0 1 0 0 1 1 1 1 0 0 0 0 0 0 0 0 1 1 1 1... имеет корелляцию 1.

 Профиль  
                  
 
 
Сообщение08.09.2008, 01:11 
Заслуженный участник
Аватара пользователя


23/07/05
17973
Москва
Sonic86 в сообщении #142959 писал(а):
Пусть $\Omega$ - вероятностное пространство, $A\subseteq\Omega$ (в противном случае термин некорректен).


Вероятностное пространство - это тройка $(\Omega,\mathcal F,\mathbf P)$, где $\Omega$ - множество элементарных исходов, $\mathcal F$ - $\sigma$-алгебра подмножеств множества $\Omega$, которые называются событиями, $\mathbf P$ - функция на множестве $\mathcal F$, которая называется вероятностью (в определение входят ещё несколько аксиом). "Условие корректности" на самом деле имеет вид $A\in\mathcal F$.

Sonic86 в сообщении #142959 писал(а):
В Колмогорове я определений терминов вида $A|H$ не нашел. Не нашел их в Ширяеве, Вентцель.
В Феллере и Гнеденко используется интуитивное понимание $A|H$, но определения нет.


Потому что везде условная вероятность определяется как вероятность в вероятностном пространстве $(\Omega,\mathcal F,\mathbf P_H)$, где $\mathbf P_H(A)=\frac{\mathbf P(AH)}{\mathbf P(H)}$ для $A\in\mathcal F$, а $\mathbf P(A|H)$ - это просто более удобная с типографской точки зрения запись выражения $\mathbf P_H(A)$ (PAV писал об этом). Поэтому никаких "терминов" $A|H$ нигде нет, соответственно, нет и их определений.

Sonic86 в сообщении #142559 писал(а):
Термины вероятности вида $P(A|H)$ при этом трактуются как вероятности событий $A$ при условии, что известно, что имеет место событие $H$.
Из определения $P(A|H) = P(AH)/P(H)$ это никак логически не следует.


Здесь я советую посмотреть на вероятность как на математическую модель понятия относительной частоты события. Предположим, что всего было произведено $n$ опытов, из них событие $H$ произошло в $n_H>0$ случаях, среди которых событие $A$ появилось в $n_{AH}$ случаях. Тогда относительная частота события $A$ "при условии $H$" будет равна $$\frac{n_{AH}}{n_H}=\frac{n_{AH}/n}{n_H/n}$$, то есть, отношению относительных частот событий $AH$ и $H$. Если мы хотим, чтобы вероятность правильно отражала свойства относительной частоты, то должны условную вероятность определить соответствующим образом.

Sonic86 в сообщении #142559 писал(а):
При использовании понятия "независимость" путаются 2 понятия: формальное "$A$ и $B$ независимы $\Leftrightarrow\mathbf P(AB)=\mathbf P(A)\mathbf P(B)$" и интуитивное "$A$ и $B$ независимы, когда они причинно назависимы, несвязаны итп". И при путанице отождествляют.
А если требование "$A$ и $B$ независимы" вводить в задачу, то на практике-то это утверждение надо откуда-то брать. Мы его берем с такой легкостью именно исходя из второго понимания


Понятие независимости событий в теории вероятностей несколько шире понятия причинной несвязанности событий. Согласитесь, что из причинной несвязанности событий $A$ и $B$ должно следовать, что вероятность события $A$ не зависит от того, появилось или не появилось при этом событие $B$, то есть, должно выполняться равенство $\mathbf P(A|B)=\mathbf P(A|\bar B)$ (предполагаем, что $0<\mathbf P(B)<1$, иначе одна из условных вероятностей не определена). Записав определения условных вероятностей и чуть-чуть повозившись с формулами, получим $\mathbf P(AB)=\mathbf P(A)\mathbf P(B)$.

 Профиль  
                  
 
 
Сообщение08.09.2008, 03:00 
Заслуженный участник


11/05/08
32166
Someone в сообщении #143049 писал(а):
Sonic86 в сообщении #142559 писал(а):
При использовании понятия "независимость" путаются 2 понятия: формальное "$A$ и $B$ независимы $\Leftrightarrow\mathbf P(AB)=\mathbf P(A)\mathbf P(B)$" и интуитивное "$A$ и $B$ независимы, когда они причинно назависимы, несвязаны итп". И при путанице отождествляют.
А если требование "$A$ и $B$ независимы" вводить в задачу, то на практике-то это утверждение надо откуда-то брать. Мы его берем с такой легкостью именно исходя из второго понимания

Понятие независимости событий в теории вероятностей несколько шире понятия причинной несвязанности событий. Согласитесь, что из причинной несвязанности событий $A$ и $B$ должно следовать, что вероятность события $A$ не зависит от того, появилось или не появилось при этом событие $B$

Я бы сформулировал чуть сильнее. В теории вероятностей вообще нет никаких зарактеристик события, кроме вероятности. Поэтому независимость одного события от другого может интерпретироваться единственным образом -- как независимость нашей оценки вероятности первого события (т.е. наших представлений о возможности его наступления) от того, появилась ли у нас какая-либо дополнительная информация насчёт наступления или ненаступления второго события. Т.е. -- как совпадение условной и безусловной вероятностей. Просто нет других разумных вариантов.

Ну а дальше -- по тексту. Условная вероятность сама по себе ниоткуда не следует и должна формально определяться из некоторых интуитивных соображений (естественнее всего -- из статистической интерпретации вероятности вообще) и т.д.

 Профиль  
                  
 
 
Сообщение08.09.2008, 11:35 
Заслуженный участник
Аватара пользователя


28/09/06
10413
Sonic86 писал(а):
Если охота про логику - лучше отдельную тему.

ОК, здесь: http://dxdy.ru/topic16136.html

Sonic86 писал(а):
Что Вы понимаете под вероятностной задачей? Задачу, где заданы одни вероятности и надо найти другие?

Да, именно так. К сожалению, другого (какого-то более "содержательного") понятия для вероятности, насколько я знаю, никто не придумал.

Sonic86 писал(а):
Если так, то я опять не то имел ввиду.
Раз уж у меня с названиями плохо, то давайте вот так:
1. Я беру последовательность $x_{n}$ и нахожу у нее автокорелляцию.
2. Я беру последовательность $x_{n}$ и нахожу у нее функцию $f(x) = \lim \limits{m \to +\infty}{\frac{N(x_{n}=x, 1 \leqslant n \leqslant m)}{m}}$.
3. Я беру вполне упорядоченное конечное множество M, задаю функцию $f_{n}$, выдающую каким-либо образом элементы M и рассматриваю ее характеристики: среднее, дисперсию, число поворотных точек итп (анализ ГПСЧ).
4. Возможно делаю еще что-то подобное.
Как этот подход назвать?

Например, задача обработки статистики.

Sonic86 писал(а):
Я нахожу сходство (не термин, слово естественного языка) в этом подходе со способом решения задач в теории вероятностей и матстатистике.
Поэтому называю этот подход вероятностным. Так как термин "сходство" строго не определен, то мой вывод неточен и я не имею права его принять как точный. его можно отвергнуть.
Поэтому предлагаю это сделать Вам, чтобы не было недоразумений.
(Ну ясно, что так как я могу сделать то, что написал хоть с чем-то, то этот подход существует и это уже точно, поэтому отвергать его как противоречивый нельзя. (Зато его легко отвергнуть как бесполезный)).

Этот подход не бесполезный, просто его не надо путать с вероятностной задачей. Наоборот, вероятностная задача (в которой наизбежно заданы какие-то априорные вероятностные предположения) может предложить некоторые методы для статистической обработки. Например, мы можем выбрать методы обработки, сходящиеся "по вероятности".

Но это не значит, что те величины, которые Вы расчитываете, это вероятности и производные от них величины. Например, когда Вы бросаете монету, то можете интерпретировать частоту (т.е. отношение $m/n$, где $m$ - количество выпадений орла к $n$ - количеству бросков) как оценку вероятности. Но почему бы не $(m+1)/(n+2)$, например? Второе - тоже не бессмыслица. При решении соответствующей вероятностной задачи первое оказывается оценкой по максимуму вероятности, а второе - по средне-вероятному значению. И когда у Вас 10 раз подряд выпадает решка, то согласитесь, что делать отсюда вывод о невозможности выпадения орла - неправильно. В этом смысле вторая оценка является более "адекватной".

Sonic86 писал(а):
Я просто при решении таких задач всегда привлекал их смысл. "Охотник" был именно охотником, "монета" - именно монетой.

Не надо путать теорию и эмпирику. То, с чем мы имеем дело при решении задач, это всегда теория. Те или иные теории могут лучше или хуже подходить для тех или иных реальных ситуаций. И теория тем ценнее, чем для большего количества важных для нас реальных ситуаций её можно применить. Но каждый раз применение теории к конкретной реальности - это творческий процесс. Потому что не существует задач, идеально подходящих к чему угодно: всегда нужно думать, что к чему подходит, а к чему нет.

Так что тут дело не только в вероятностях, а в теоретическом знании вообще. Что касается именно ТВ, то это - достаточно универсальный формализм, которым при надлежащем выборе априорных предположений можно применить практически к чему угодно. Вопрос заключается в "правильном" выборе априорных предположений.

Sonic86 писал(а):
А вот насчет определения я посмотрю еще раз (вдруг я действительно забыл. У нас на лекциях терминов $A|H$ не определяли). посмотрю - отвечу на остальное.

Ну так, могли и не определять: в стандартные курсы ТВ это вряд ли входит. Но Вы подняли этот вопрос и я отвечаю: Формализм, манипулирующий условными событиями без ссылки на меру (вероятность) возможен. И, между прочим, это часто бывает весьма удобным, поскольку для нас часто бывает важной логическая конструкция утверждения, а не арифметические операции с мерой событий, которые в нём упоминаются. Но мы всегда знаем, что ТВ позволяет перейти от логики утверждения к арифметике для меры.

Добавлено спустя 26 минут 44 секунды:

Someone писал(а):
Здесь я советую посмотреть на вероятность как на математическую модель понятия относительной частоты события. Предположим, что всего было произведено $n$ опытов, из них событие $H$ произошло в $n_H>0$ случаях, среди которых событие $A$ появилось в $n_{AH}$ случаях. Тогда относительная частота события $A$ "при условии $H$" будет равна $$\frac{n_{AH}}{n_H}=\frac{n_{AH}/n}{n_H/n}$$, то есть, отношению относительных частот событий $AH$ и $H$. Если мы хотим, чтобы вероятность правильно отражала свойства относительной частоты, то должны условную вероятность определить соответствующим образом.

Я в своё время на своём сайте выкладывал некие соображения об этом в этой статье: http://e-pros.narod.ru/probability.htm
конкретно в этом разделе: http://e-pros.narod.ru/probability4.htm

Суть в том, что для классического вероятостного пространства эта формула получается как тривиальное следствие равновероятности элементарных исходов, а на общий случай (когда элементарные исходы не равновероятны) она обычно распространяется автоматически. Но если принять некий "принцип сохранения равноправия причин", то формулу условной вероятности можно вывести и из него.

Частотная интерпретация, к сожалению, плоха тем, что не всегда можно провести много испытаний на одном вероятностном пространстве: есть уникальные события, о вероятности которых, однако, мы имеем право высказывать какие-то суждения.

 Профиль  
                  
 
 
Сообщение08.09.2008, 11:44 


02/09/08
143
Есть такая вещь, как теория динамических систем. Она объясняет как при полном детерминизме тем не менее возникают некоторые свойства случайности. В теории, теорию вероятностей во всех случаях можно заменить теорией динамических систем, но на практике у нас нет достаточной информации о законах внешнего мира, да и теория динамических систем на много сложнее.

 Профиль  
                  
 
 
Сообщение08.09.2008, 17:03 
Аватара пользователя


03/06/08
392
Новгород
ha, ну, если принцип неопределенности Гейзенберга все же имеет место быть, то заменить чем-либо детерминистическим теорию вероятности вряд ли возможно.

 Профиль  
                  
 
 
Сообщение08.09.2008, 17:26 


02/09/08
143
Принцип неопределенности Гейзенберга не противоречит детерменизму. Просто вместо единственной вселенной в квантовой механике появляется Мультиверс состоящий из множества вселенных. Сам по себе Мультиверс остается предсказуемым - он подчиняется уравнению Шредингера. Следует отметить, правда, что текущая теория динамических систем с ним работать почти не умеет.

 Профиль  
                  
 
 
Сообщение12.09.2008, 10:17 
Заслуженный участник


08/04/08
8556
To epros:
Ура! Я нашел с Вами общий язык!
Будем различать вероятностные задачи и задачи обработки статистики.
В принципе пока согласен: пусть мы вычисляем не вероятности.
(Я обычно всерьез перехожу на формальный язык только тогда, когда имею противоречия.)
Вообще я с помощью Ваших разъяснений и разъяснений других участников форума почти все понял насчет условных событий итп.
Теорию и эмпирику я не путал, я устанавливал отношение интерпретации, ну да бог с ним.

To Someone:
Действительно, если определять вероятность как $p=m/n$, то понимание условной вероятности совсем очевидно.
Кроме того, Вы указали еще один вариант абстракции условной вероятности - через частоты. Спасибо, интересно!

 Профиль  
                  
 
 
Сообщение12.09.2008, 12:44 
Заслуженный участник
Аватара пользователя


28/09/06
10413
Sonic86 писал(а):
(Я обычно всерьез перехожу на формальный язык только тогда, когда имею противоречия.)

Ура! Кажется я тоже найду с Вами общий язык. :)

 Профиль  
                  
 
 
Сообщение13.09.2008, 12:19 
Заблокирован


22/06/08

642
Монреаль
А можно посмотреть на тему топика с другой стороны.
Откуда взялось понятие случайность?

1.Из решения стандартных практических задач.Из эксперимента.

Например, как точнее попасть в цель снарядами.Это зависит от разницы их веса.
Чем меньше разница в весе, тем точее попадание в одно и тоже место.
От воздуха.На Луне точность стрельбы из пушки будет выше.


2.Из желания проиграть.В казино, карты.
Но если с казино проигрыш возможен.
То в картах оказалась есть вероятность выигрыша около 0.6. То же примерно и с подбрасыванием монетки.
То есть, когда есть множество одинаковых событий, исход которых неизвестен, возникает термин вероятность.

Если вы смотрите на числа, а потом оказывается, что они образуют число пи.То вы всегда будете видеть одни и те же числа. Eсли вы знаете, что это число пи, то это уже не хаос.
То есть случайность перестала ей быть после анализа последовательности чисел.
Аналогично взвешивание.Чем больше точность, тем
менее точен результат.Хаос возникает везде, где
есть множество событий

3. Есть события, которые очень сильно меняются от небольших других событий.Например, погода.Но какая бы она не была сегодня, мы знаем, что всегда будет зима и лето.Это уже детерминированный хаос.
Если договориться, что мы знаем температуру с точностью до 20 градусов.Тогда она будет падать и рости в течении года.Без всякого хаоса.

Но даже в биллиарде, как бы вы не стучали по кию, все равно кто-то выиграет.Более опытный управляет хаосом.Есть задачи управления случайными событиями.

Таким образом мы хорошо знаем и используем случайные величины, их последовательность, когда вероятность события стремится к единице или говорят
последовательность сходится с вероятностью 1 по вероятности или по распределению к случайной величине.
Пример: подбрасывание монетки.
Все учеюники мат статистики и теории вероятности посвящены этой теме.

Но есть второй гиганский класс случайных явлений, когда последовательность сходится с вероятностью 1 по вероятности или по распределению, не к одному числу, а
к интервалу случайных величин.Истина лежит где-то в интервале.Мы знаем только минимальное и максимальное значение.

Простой пример. Если мы посмотрим знаки числа пи и составим из них последовательность,то каждый знак не превышает 9 и не меньше 0.
Теперь представьте. что вы не знаете, что это числа, идущие по номеру, составляют число пи.
С точностью до 2 знаков после запятой, вы уверены, что оно от 3.14 до 3.15.
То есть здесь уже нужно знать требуемую точность числа.

Другой пример.Мы открываем кран и видим, что расход меняется от 1 литра в секунду плюс минус 0.2 литра воды.
Мы можем немного увеличить точность замера.Но мы не может увеличить точность до той величины. которую хотим.
Вода не дает нам это сделать.Трубы дрожат, есть отклонения от идеальной геометрии,образовалась ржавчина или засор и нельзя скажем определить точнее расход, чем от 1. до 1.2 литра в секунду.
Тогда берут среднюю величину и пишут, что расход равен 1.1 плюс минус 0.1 литра в секунду, если записывать карандашем величины расходов через минуту.

Мы должны выбрать время осреднения.
Так же измеряют расстояния.с какоой то погрешностью.

Для таких случайных процессов оказалось есть ситуации или типы процессов, когда они вроде бы случайные.Но когда посмотреть внимательно, то они повторяются.
Но повторение идет не по простому закону косинуса, а какой-то сложной функции.
Вот напримр дробь:
2/7=0.2857142857142857
Постройте на графике эти цифры.
теперь другая
6/7=0.8571428571428571
Если вы введете вместо 6 другое число, то на множестве примеров видны повторяющиеся
последовательности, как у дроби 2/7. Мы имеем множество повторяющихся цифр.
22/7 23/7 24/7 25/7
Везде одно и тоже.
Такие хаотические числа как $\pi$ редкость.

Есть ли ошибка в таком рассуждении?

 Профиль  
                  
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 66 ]  На страницу Пред.  1, 2, 3, 4, 5  След.

Модераторы: Модераторы Математики, Супермодераторы



Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group