Везде читал, что сходимость метода Монте-Карло для счета МО имеет скорость порядка

.
Тогда я не понимаю, какая сходимость имеется ввиду в первом случае - и когда полез искать в интернет, ничего толкового кроме общих фраз не нашел.
Вставлю-таки свои пять копеек :) Не касаясь Хёфдинга - там про скорость
ИСН всё разъяснил, а вот по поводу последней фразы.
Под "скоростью сходимости порядка

" (скорее,

) имеется в виду типичная скорость сходимости среднего к матожиданию в силу ЦПТ.
Пусть дисперсия есть, тогда последовательность с.в.

(слабо сходится). Грубо говоря, в некотором (только что указанном) смысле,

есть при больших

что-то вроде

.
Если говорить точнее, то

Вот

и показывает скорость сходимости. Кабы вероятность стремилась к нулю, это означало бы, что среднее к матожиданию сходится быстрее, чем нечто делить на корень из

. Кабы к единице - медленнее. А к ненулевой постоянной - аккурат с такой скоростью.
(Оффтоп)
Вообще, любопытная какая-то система образования: марковские процессы, мартингалы и т.п. ужастики. А тервер и математическая статистика как будто где-то в стороне остались? Ну, там, асимптотическая нормальность оценок, асимптотическая нормальность основных статистик вроде выборочного среднего, та же ЦПТ?