Устранил одну ошибку, связанную с плохим пониманием формулы:

(хотя здесь я не очень уверен, т.к. выбираю из бесконечной генеральной совокупности)

Тогда дисперсия принимает вид

В конце второй статьи есть приближенное выражение для

при простом случайном отборе:

С ним последняя скобка у дисперсии отрицательна, но это, похоже, правильно, поскольку имеет место и в формуле им. Yates-Grundy-Sen .
Я провел моделирование вольфрамом,
X = ChiDistribution[1],

а дисперсию обычной оценки я полагаю

(см. википедию, статья "Empirical distribution function"):
Код:
For[x = 0, x < 4, x = x + 0.5, Print[VarFHT[x]]]
0.
0.00670945
0.00654398
0.0037609
0.00249729
0.001421
0.001421
0.001421
Minimizer[a_] :=
First[NMaximize[{(1/N1)*a^2*Fsimple[t]*(1 - Fsimple[t]) + (1 - a)^2*
VarFHT[t], 0 <= t <= 4}, t]]
W = {};
For[a = 0, a < 1, a = a + 0.1, W = Append[W, Minimizer[a]]];
W
Out[62]= {0.00762577, 0.00622488, 0.0050725, 0.00416863, 0.00351328, \
0.00310644, 0.00294856, 0.00306938, 0.0034719, 0.00411709}
Выходит, минимаксная оценка для

лежит где-то в районе 0.6.
Очень требуется какая-то теоретическая помощь в обосновании результата и очень хотелось бы получить хоть приблизительные "формульные" выкладки.
P.S. Учебник Jun Shao - Mathematical Statistics, Second Edition на стр.328 по вопросу асимптотических свойств оценки Горвица-Томпсона моего вида ссылается на статью Chen, J. and Qin, J. (1993). Empirical likelihood estimation for finite populations and the effective usage of auxiliary information. Biometrika, 80, 107-116. Но достать ее нигде не могу.