Первое метание — на
?
Напишу, как я дошёл до жизни такой.
Во-первых, вычислений немало, где-то я мог наврать, так что следите за руками!
Во-вторых, я сразу принял
, потому что понятно, что результат потом можно просто умножить на правильное
.
В-третьих, у меня немного другие обозначения, чем у
arseniiv.
Идём вправо до точки
. Потом влево до точки
. Потом опять вправо до
и опять влево до
. И т.д. Таким образом, все
.
Интересующее нас матожидание складывается из кусков, вычисляемых только на тех участках, на которые мы вступили впервые. Вычисляется стандартным образом: текущее значение пройденного пути умножается на плотность вероятности в текущей точке и интегрируется. Вспомним для начала плотность вероятности нормального распределения с нулевым средним и единичной дисперсией:
Поехали! На нулевом участке получается:
На первом уже возникает не берущийся в элементарных функциях интеграл. Введём для него стандартное обозначение:
Кусок матожидания получается:
(тут мы пользуемся симметричностью распределения). Подынтегральная добавка
означает, что мы бесплодно дошли до
и обратно. На втором шаге, когда мы пойдём опять вправо, эта добавка будет уже
(хотя на самом деле мы бесплодно пройдём ещё больше:
, но
из этого пути будет уже учтено в
). И т.д. На
-м шаге (
) получается такой кусок матожидания:
Искомое матожидание:
Первую часть суммы я сразу выписал, потому что она "сворачивается" легко: в ней осталось только две единицы из числителей дробей
и
, которые мы складываем и делим на знаменатель, остальные слагаемые взаимно уничтожаются.
С остатком сложнее. Снизим его громоздкость, введя обозначение
:
Соберём вместе коэффициенты перед
:
Видим, что почти всё уничтожается и остаётся
Учитывая, что
, имеем:
где для пущей компактности доопределено
, соответственно,
.
Вот эту вещь нам и предстоит минимизировать.
Давайте-ка для ещё большей компактности определим
(напоминаю, что
— константа):
Функция
— гладкая, поэтому со спокойной душой (и тяжёлым сердцем, ибо
, как функция счётного числа аргументов, по-хорошему, требует к себе отдельного уважения) дифференцируем по каждой переменной:
Отсюда следует рекуррентная формула:
К сожалению, этого недостаточно для определения
Но если мы обнаглеем
и продлим эту формулу на
(для этого ещё понадобится доопределить
), то получим:
откуда, вспоминая, что такое
, получаем:
.
Что можно сказать в оправдание такой наглости? Ну, например, вот что: допустим, нулевому шагу вправо предшествовал "минус первый" шаг влево на неизвестную величину, а потом будем уменьшать эту величину до нуля. На итоговое поведение это не повлияет. Так себе оправдание, но я смутно чувствую, что в нём что-то есть.