То epros.
Насчет
.
Это логика Зиновьева (который не математик). Значок
читается как "логически следует".
Я так понял, это Вам (как и всем остальным) будет неинтересно. Хотя бы в силу большой простоты.
Насчет фатализма, возможности и необходимости я, видимо, тоже зря.
Просто мне показалось, что "индетерминизм" есть отрицание "детерминизма", причем такое отрицание, для которого выполняется закон исключенного третьего (по определению или еще как-то).
Скорее всего это не так. Видимо "индетерминизм" означает именно невозможность предсказания будущих событий (то есть, например, в него возможность недоказуемости предсказуемости и непредсказуемости, либо бессмысленность вопроса не входит)
Поэтому и отрицание затронул (у меня с ним тоже проблем нет, если что - лучше в отдельную тему).
Вы писали:
Странно. Я полагал, что большинство нормальных генераторов по этим признакам как раз хорошо себя показывают.
Я с этим согласен. Но вот если мне надо в коде писать генератор вручную, то это быстро не получится.
Я как-то 20 самых разнообразных генераторов брал и проверял по всем критериям. Они более-менее удовлетворяют этим требованиям, но не совсем (это мне преподаватель сказал), особенно с поворотными точками плохо было. Выше 0,62 у меня доля просто так не лезла.
Вы писали:
Неповторяемость для случайной последовательности как раз не есть критерий качества. Наоборот, чисто формально, если мы знаем, что значение не повторится, то это означает, что в последовательности есть фактор неслучайности. Другое дело, что многие генераторы ПСЧ устроены таким образом, что если значение повторится, то повторится и вся следующая за ним последовательность, а поэтому считается правильным, чтобы это происходило максимально редко.
Согласен. Но этот критерий - общий. Он строится для того, чтобы удовлетворить абсолютное большинство случаев. Соответственно, при этом он некоторые вещи не может. Ну я повторюсь: спустя любое сколь угодно долгое время нельзя теоретически утверждать (хотя практически можно, или если структуру генератора исследовал), что генератор принял все возможные значения.
Это я имею ввиду генератор, который случайно выдает элементы некого конечного множества.
Вот мне надо было перебирать все двоичные вектора длины n с k единицами. И вот для этой специфической задачи мне большинство качеств ГПСЧ не нужно было. А вот возможность полного перебора множества, которую можно теоретически утверждать, зная свойства генератора, мне нужна была. Хотя это действительно уже характеризует генератор как неслучайный.
Другими словами, мне нужен был рандомизированный перебор. Хотя бы, чтобы каждое следующее значение сильно отличалось от предыдущего. Иногда это нужно, когда ЦФ при дисркетном изменении аргумента изменяется ограниченно (часто - на 1).
Извините, если я это другими словами назвал. Просто в практике это вещи похожие.
Вы писали:
Смысл теорвера начинается там, где нет точного знания. Где оно есть, можно гораздо проще обойтись и без него.
Согласен. То, что я предлагаю обсудить можно назвать "псевдовероятностный подход". Дело-то пока не в названиях.
Вы писали:
Случайность = случайное событие. Случайное событие (например, по Колмогорову) - это элемент алгебры событий.
Согласен. Только смысл случайного как непредсказуемого в этом определении исчезает.
Вот я могу написать
, где n - произвольное натуральное число. И случайными событиями окажутся просто варианты
и
.
Вот я Чайковского (ссылка от Andrey Soloduhin
http://www.kudrinbi.ru/public/431/index.htm) прочел. Там есть следующий текст:
В п.5 Колмогоров отметил, что ТВ является чем-то большим, нежели главой теории меры, только в силу наличия в ней понятия независимости. (Это значит, что все разговоры о зависимых случайных величинах обязаны иметь некоторые рамки, ограничивающие независимость, но не исключающие её.) А о связи меры с миром вообще у него не сказано.
Я прокомментирую (хотя это не совсем в тему, а для кого-то даже совсем не в тему):
В универе часто на курсе тервера решают задачи типа: 2 охотника стреляют в зайца. Первый попадает с вероятностью 0,5, а второй - с 0,7. Найти вероятность того, что одновременно выстрелив в зайца они получат добычу.
Нормальные люди такое решают на автомате примерно так: А={1-й попал}, В={2-й попал}. А и В независимы. Поэтому
, поэтому
. Все.
Подходя с позиции логики такое решить нельзя. Почему А и В независимы? Потому что один охотник другому не мешает. Но это-то здесь не при чем. А и В независимы (по определению)
. И теперь для того, чтобы утверждать, что А и В независимы, это соотношение надо проверить. А это невозможно - данных нет. Решение логика на этом закончится.
При использовании понятия "независимость" путаются 2 понятия: формальное "А и В независимы
" и интуитивное "А и В независимы, когда они причинно назависимы, несвязаны итп". И при путанице отождествляют.
А если требование "А и В независимы" вводить в задачу, то на практике-то это утверждение надо откуда-то брать. Мы его берем с такой легкостью именно исходя из второго понимания (как?! Вы берете его по другим соображениям? по каким?!)
А если второе понимание отбросить, то ничего не получится. А формально второго понимания нет. Его нет и в определении случайного события как элемента алгебры событий.
В классическом определении
его тоже нет.
Ну в конце концов я обязательно вспомню метод Монте-Карло, который применяется для решения вполне определенных задач (взятие определенных многомерных интегралов со сложной границей).
Вы писали:
Ха, любое утверждение о вероятностях в рамках теорвера является точным.
Прошу прощенья, я неправильно выразился. Я имел ввиду не вероятностные суждения, а суждения, содержащие термины теории вероятностей (матожидание, корелляция, плотность вероятности, независимость).
Вы писали:
Но дело-то не в этом, а в том, что эта частота - не есть плотность вероятности. Вероятность возникает там, где мы не знаем, куда попадёт i-тое значение. А частота возникает там, где мы уже знаем, куда попало большое количество значений.
Пожалуйста. Я могу просто все назвать другими словами. Например: псевдо-функция распределения, псевдо-вероятность. Разницы-то при вычислении нет. Я считать псевдо-вероятности и псевдо-функции распределения буду таким же образом (ну или почти таким же, не знаю, не считал).
С частотой - не могу согласиться. Я же просто перебираю всю генеральную совокупность.
Вообще-то было бы что обсуждать. Идея-то явно не содержит противоречий. Только вот что с ней делать?
Вот, к примеру. Если
- периодическая последовательность, то ее автокорелляция равна автокорелляции Т первых членов (зацикленных, Т - период).
Она не равна 0.
.
Найдя частные производные по переменным, получим T линейных однородных уравнений вида
.
Ранг матрицы равен T-1 (при
, иначе: 0 0 1 1 0 0 1 1 0 0 1 1 ...), значит все решения выражаются параметрически через 1 переменную.
Действительно, эти решения такие:
. Значит других решений нет. (Тут Вы наверняка лучше меня бы решили).
Но если
, то
- не является периодической. Если же Вы включаете постоянные функции в периодические, то есть другой аргумент - дисперсия
тогда равна 0, а значит корелляция не определена.
Таким образом,
- периодическая
.
Верно ли обратное?
Добавлено спустя 1 минуту 6 секунд:
Вот еще кое-что более-менее в тему.
Чтобы похожую тему не заводить пишу здесь. Но это с предыдущим мало связано, строго говоря - другая тема.
В обычной теории вероятностей (Колмогоров) определяются термины вероятности вида
, но термины событий вида A|H не определяются.
Термины вероятности вида
при этом трактуются как вероятности событий А при условии, что известно, что имеет место событие Н.
Из определения
это никак логически не следует. Логически можно только утверждать, что величина
и то, что она выражает соотношение вероятностей событий
и
.
Хотя при решении задач это существенно используется. Но если в теории что-то существенно используется, то это надо хотя бы как-то формализовать
Можно попробовать определить термины вида A|H так, чтобы все нужные свойства сохранились. (Хотя бы ради интереса.)
Вообще нельзя рассматривать просто события А. Можно рассматривать их лишь как элементы вероятностного пространства. Поэтому вообще следовало бы писать
, где
- вероятностное пространство.
Маленький примерчик. Всякий, кто пользовался диаграммами Эйлера для обозначения событий знает, что для строгого обозначения 1 события нужно рисовать 2 круга: "само" событие и универсальное множество (вероятностное пространство).
Если Вы мне не верите, попробуйте нарисовать на диаграмме Эйлера одновременно 3 разных события: А, Н и А|Н. У меня не получилось
Если обозначить
, то можно определить
.
Тогда, если А изначально было определено в
:
, то
. При этом особая разница между событиями и условными событиями исчезает и остается только в вероятностном пространстве, где А было определено изначально. Но ввиду возможности разного определения эта разница практически никакая. Зато выделенное значение приобретает максимальное вероятностное пространство.
Назовем события А и В несвязанными, если
и
(Хотя возможно, что
).
Тогда если А и В несвязаны, то А и В независимы (
). Чтобы корректно рассматривать термин
, так как А и В определены в разных вероятностных пространствах надо ввести пространство
.
Надо положить
и
. Тогда это легко доказать.
Для люьбых А и Н события A|H и H несвязаны, поэтому независимы, поэтому
.
Интересно, откуда тогда взять
? Видимо, дело в том, что так как A|H и H - события разных вероятностных пространств. Ввиду того, что мы на самом деле работаем не с "самим" событием, а с парой событие-пространство (см. выше), то определение
как пересечения множеств не настолько естественно как кажется. Ведь если
, то полагая
, нужно еще определить, что такое
.
То есть у нас операция
для событий разных вероятностных пространств оказывается неопределенной. Вот мы ее и определим так, чтобы
, то есть у нас
- более широкое простраство, которое включает в себя другое.
Ну, по индукции сразу
, события несвязны, поэтому независимы, поэтому