Сначала, хотел бы выразить признательность за то, что вы уже потратили на меня столько времени. Спасибо.
С другой стороны, если рассматривать метод в целом, как Вы предлагаете, а не конкретный доверительной интервал, то отброшенные переменные учитывать наверное можно. Ведь он отбрасывает их не просто так, а на основании каких ни каких, но критериев.
Вот именно. Они должны учитываться, поскольку являются таким же конечным результатом какого-либо селективного алгоритма, как и построенный доверительный интервал. Ведь та же ступенчатая регрессия предполагает сначала провести селекцию, и только потом оценку. То есть селекция это часть метода, которая должна влиять и влияет на конечный результат. Опять же, если это основано на AIC, то конечная модель может включать в себя переменные, чьи коэффициенты статистически значимы по p-value<0.157. То есть AIC критерий позволяет построение модели с незначительными переменными (незначительными по выборке, необязательно с реальным
). Это часть метода, а значит и исключение переменных это часть метода.
Я не уверен, что это можно назвать "процентом покрытия", скорее что-то вроде "процент попадания", но я уже проводил сотни симуляций и они все показывают, что у селекционных моделей все хорошо в плане покрытия неважными переменными, но есть сильная параболическая просадка в области (0,1], и где-то после 1 или (-1) покрытие становится более-менее нормальным, хоть и не дотягивает до nominal coverage level. Например, я сейчас закончил симуляцию для ступенчатой с AIC при 10,000 итераций и вот результаты (Coverage 1 - исключая выкинутые, Coverage 2 - все итерации):
Например, переменную с коэффициентом 0.01 ступенчатая регрессия выкидывала 8,322 раза, а из оставшихся 1,678 только 64.9% интервалов содержали 0.01, но по факту, воспользовавшись этим методом, в 89.1% случаев я бы получил либо неверный интервал, либо просто выкинутую переменную.
Что по Вашему доверительный интервал для
[0,0]? Это противоречит действительности.
Почему же? Метод выкинул переменную, а значит что по его алгоритму и критериям она неважна, хотя другие незначимые или статистически незначимые (для p-value=5%) он вполне может включить в ту же модель. Так почему нельзя предположить, что раз метод выкинул переменную, то он уверен в том, что ее эффект равен 0 с нулевым доверительным интервалом. Доверительный интервал говорит нам о возможном разбросе эффекта, ну а если уж метод выкинул переменную, то тут четкая оценка 0 без разброса, ну или
, а то есть
.
А ведь именно по ней, в конечном итоге, Вы будете сравнивать эффективность разных методов.
Здесь ваша логика совпадает с моей, но как я уже намекал, я сравниваю селекционные методы и методы усреднения моделей. По проценту покрытия, селекционные методы просто неспособны побить методы усреднения и неважно буду я учитывать все итерации или нет (по крайней мере для небольших выборок). Если методы усреднения дают покрытие в районе 93.5-96.4, вне зависимости от величины коэффициента, то селекционные модели дают разное покрытие для каждого коэффициента и это покрытие всегда хуже. Поэтому селекционные модели просто не будут участвовать в дальнейшем сравнение, то есть сравнение средних значений длины будет проходить уже между методами усреднения моделей. Но все же, если высчитывать покрытие метода учитывая все итерации, то мне не очень понятно, как рассчитывать длину даже если она уже не так важна.