pasha_ch писал(а):
Задача состоит в следующем: есть совокупность винеровских прооцессов, стартующих из точек 0, 1, 2, 3,... Для каждого из процессов 1, 2, 3,... расссмотрим случайные величины: момент первой встречи этого процесса с 0-ым.Нужно найти распределение суммарного количества встреч за время T.
Уже найдено рапределение каждого отдельного момента встречи и с помощью леммы Бореля-Кантелли доказано, что их конечное число с вероятностью 1.
Буду рад выслушать любые предложения.[/b]
Ну прежде всего, независимы ли Ваши винеровские процессы?
Наверное, да - иначе все становится еще сложнее
Кое-что по теме Вы можете найти у
Шрива (Steven Shreve) (§3.6. First Passage Time Distribution).
В Сети также есть бесплатный черновик этой книги в виде Lecture Notes, читанных Шривом.
Я бы решал примерно так: пусть

- некий уровень,

- время, в которое винеровский процесс впервые пересекает этот уровень. Тогда (см. Шрива)
Но это верно только для "стандартного" винеровского процесса, т.е. который начинается из нуля.
Теперь, возвращаясь к Вашей ситуации: рассмотрим, например, процесс

- т.е. разность винеровских процессов, стартующих, соотв., в нуле и в единице.
Т.к. при суммировании нормальных случайных величин ожидания и дисперсии складываются, то в каждый момент времени

~

, инкременты его будут нормальны и независимы - ну т.е. "почти" винеровский процесс, только дисперсия в два раза больше.
Очевидно, что

и

встречаются тогда и только тогда, когда
Теперь для удобства сдвинем его на единицу вверх по оси ОY и рассм.
Тогда

стартует из нуля и мы можем рассматривать событие, что
И вот тут (imho!) можно доказать, что для

формула из Шрива будет иметь вид

.
Для этого надо почти дословно повторить рассуждения Шрива, главное, что

- мартингал.
Осталось только подставить
Аналогично рассматриваете встречу с другими процессами - ну т.к. эти встречи независимы, то дальше уже несложно посчитать и вероятности суммарного кол-ва встреч.