Ну и сразу: Если кто-то в Википедии видел ошибки по вышеуказанным разделам, прошу написать о них тут.
Вы издеваетесь? Да там по пальцам можно перебрать статьи, где нет хотя бы вопиющей безграмотности в терминологии. Разве только статьи, где дословно переписан материал из классических источников (что запрещено в википедии).
Ну во, например, редкостный сборник:
Случайная величина. Особенно меня радуют ссылки. Найти бы автора. Я бы об него за своё честное имя кулаки бы почесала с превеликим удовольствием.
Отдельные выдержки:
Цитата:
Пусть случайная величина имеет стандартное распределение Коши. Тогда

,
то есть математическое ожидание

не определено.
Или:
Цитата:
Случайной величиной называется функция ...
Случайную величину можно определить и другим эквивалентным способом: ...
Или:
Цитата:
Случайные величины могут принимать дискретные, непрерывные и дискретно-непрерывные значения. Соответственно случайные величины классифицируют на дискретные, непрерывные и дискретно-непрерывные (смешанные).
Или (набор формул сохраняю как есть):
Цитата:
Биноминальный закон распределения описывает случайные величины, значения которых определяют количество «успехов» и «неудач» при повторении опыта N раз. В каждом опыте «успех» может наступить с вероятностью p, «неудача» — с вероятностью q=1-p. Закон распределения в этом случае определяется формулой Бернулли: ...
Если при стремлении

к бесконечности произведение
остаётся равной константе 
, то биномиальный закон распределения сходится к закону Пуассона ...
Дальше,
Независимость_(теория_вероятностей). Как Вам
определение (!):
Цитата:
Два события

независимы, если
Вероятность появления события A не меняет вероятности события B.
См. также последнее свойство в этой статье. Поменяем плотности справа или слева на множестве нулевой меры Лебега - вуаля, независимые величины станут зависимыми.
Да куда не ткни, всюду сюрр. Статья "Вероятностное пространство":
Цитата:
В качестве сигма-алгебры удобно взять семейство подмножеств

. Его часто символически обозначают

.
Термин "слабая сходимость" вообще отсутствует в перечне статей категории "Теория вероятностей". Вообще. Напрочь. Нету такой.
И это просто наугад открытые статьи. В математическую статистику даже заглядывать не буду, боюсь.