2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 Математическое ожидание статистики
Сообщение12.03.2013, 15:09 
Здравствуйте дорогие друзья!

В книге Г.И. Ивченко, Ю.И. Медведев "Введение в математическую статистику" написано следующее:
Цитата:
Пусть $\underline{X}=(X_1, X_2, \dots, X_n)$ - выборка из распределения Бернулли $\text{Bi}(1, \theta),$ т.е. $X_i$ принимает значения $0$ и $1$ с вероятностями $1-\theta$ и $\theta,$ соответственно. Для этого запишем для произвольной статистики $T(\underline{X})$ ее математическое ожидание: $$\mathbb{E}_{\theta}T(\underline{X})=\sum \limits_{\underline{x}=(x_1, \dots, x_n)}T(\underline{x})f(x_1; \theta)\dots f(x_n; \theta), \eqno(1)$$ где $f(x; \theta)=\theta^x(1-\theta)^{1-x}, x=0,1$
Вот мне непонятно последнее предложение. Ведь по определению математического ожидания получаем, что $$\mathbb{E}_{\theta}T(\underline{X})=\sum \limits_{\underline{x}=(x_1, \dots, x_n)}T(\underline{x})P\{X_1=x_1, \dots, X_n=x_n\}\eqno(2)$$ Ведь (1) следует из (2) если $X_i$ независимы.
Объясните пожалуйста не понимаю как получается формула (1).

 
 
 
 Re: Математическое ожидание статистики
Сообщение12.03.2013, 17:48 
Аватара пользователя
$$\mathsf P_\theta(X_i=x)=\theta^x(1-\theta)^{1-x}=\begin{cases}\theta, & x=1,\cr 1-\theta, & x=0.\end{cases}$$

Элементы выборки независимы.

 
 
 [ Сообщений: 2 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group