Первое метание — на

?
Напишу, как я дошёл до жизни такой.
Во-первых, вычислений немало, где-то я мог наврать, так что следите за руками!
Во-вторых, я сразу принял

, потому что понятно, что результат потом можно просто умножить на правильное

.
В-третьих, у меня немного другие обозначения, чем у
arseniiv.
Идём вправо до точки

. Потом влево до точки

. Потом опять вправо до

и опять влево до

. И т.д. Таким образом, все

.
Интересующее нас матожидание складывается из кусков, вычисляемых только на тех участках, на которые мы вступили впервые. Вычисляется стандартным образом: текущее значение пройденного пути умножается на плотность вероятности в текущей точке и интегрируется. Вспомним для начала плотность вероятности нормального распределения с нулевым средним и единичной дисперсией:

Поехали! На нулевом участке получается:

На первом уже возникает не берущийся в элементарных функциях интеграл. Введём для него стандартное обозначение:

Кусок матожидания получается:

(тут мы пользуемся симметричностью распределения). Подынтегральная добавка

означает, что мы бесплодно дошли до

и обратно. На втором шаге, когда мы пойдём опять вправо, эта добавка будет уже

(хотя на самом деле мы бесплодно пройдём ещё больше:

, но

из этого пути будет уже учтено в

). И т.д. На

-м шаге (

) получается такой кусок матожидания:

Искомое матожидание:

Первую часть суммы я сразу выписал, потому что она "сворачивается" легко: в ней осталось только две единицы из числителей дробей

и

, которые мы складываем и делим на знаменатель, остальные слагаемые взаимно уничтожаются.
С остатком сложнее. Снизим его громоздкость, введя обозначение

:

Соберём вместе коэффициенты перед

:
Видим, что почти всё уничтожается и остаётся

Учитывая, что

, имеем:

где для пущей компактности доопределено

, соответственно,

.
Вот эту вещь нам и предстоит минимизировать.
Давайте-ка для ещё большей компактности определим

(напоминаю, что

— константа):

Функция

— гладкая, поэтому со спокойной душой (и тяжёлым сердцем, ибо

, как функция счётного числа аргументов, по-хорошему, требует к себе отдельного уважения) дифференцируем по каждой переменной:

Отсюда следует рекуррентная формула:

К сожалению, этого недостаточно для определения

Но если мы обнаглеем

и продлим эту формулу на

(для этого ещё понадобится доопределить

), то получим:

откуда, вспоминая, что такое

, получаем:

.
Что можно сказать в оправдание такой наглости? Ну, например, вот что: допустим, нулевому шагу вправо предшествовал "минус первый" шаг влево на неизвестную величину, а потом будем уменьшать эту величину до нуля. На итоговое поведение это не повлияет. Так себе оправдание, но я смутно чувствую, что в нём что-то есть.