2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 Probit regressional model
Сообщение25.11.2015, 00:32 
Аватара пользователя
Здравствуйте! У меня назрел вопрос. Допустим, что у меня есть линк-функция:

$\Phi(\pi_i)=\alpha+x_i'\beta$, где $X_{ij}, j\in\{1,2\}$, то есть две переменных. В таком случае
$\pi_i=\Phi^{-1}(\alpha+x_i'\beta)$.

Допустим, что я использую биномиальную MLE функцию:
$L(\pi)=\prod\limits_{i=1}^n \pi_i^{y_i}(1-\pi_i)^{1-y_i}=\prod\limits_{i=1}^n [\Phi^{-1}(\alpha+x_i'\beta)]^{y_i}(1-\Phi^{-1}(\alpha+x_i'\beta))^{1-y_i}$

После долгих вычислений я получил, что для

$w_i=\frac{\big(\varphi(\pi_i)(y(2\pi_i-1)-\pi_i^2)-\varphi'(\pi_i)\pi_i(1-\pi_i)(y-\pi_i)\big)}{\pi_i^2(1-\pi_i)^2\varphi(\pi_i)^3}$

observed information будет:

$i(\theta)=\begin{pmatrix} \sum\limits_{i=1}^n w_i & \sum\limits_{i=1}^n x_{i1}w_i & \sum\limits_{i=1}^n x_{i2}w_i\\  \sum\limits_{i=1}^n x_{i1}w_i & \sum\limits_{i=1}^n x_{i1}^2w_i  & \sum\limits_{i=1}^n x_{i1}x_{i2}w_i  \\ \sum\limits_{i=1}^n x_{i2}w_i  & \sum\limits_{i=1}^n x_{i1}x_{i2}w_i & \sum\limits_{i=1}^n x_{i2}^2w_i \\  \end{pmatrix}$

Вопрос вот какой, в книге которую я читаю (Biostatistical Methods by John Lachin), не объясняют почему например для logit, log или log-log линк-функции Обозреваемая и Ожидаемая информация Фишера равны. Не могли бы вы мне объяснить почему они равны, и как посчитать Ожидаемую информацию Фишера в примере, что я привел. При функции probit, они по идее не равны. Заранее спасибо.

 
 
 [ 1 сообщение ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group