--mS--Спасибо. Но при невозможности что-то сказать относительно участвующих в оценке моментов, это, кажется, мало чем может помочь обоснованию.
Я думал, есть какой-нибудь подход наподобие: пусть

- эмпирическое распределение статистики Стьюдента

,

- некоторое распределение Стьюдента и некоторое

, такие, что выполняется

(здесь

- равномерная метрика). Тогда для любого интервала

Первый множитель с точностью до

будет совпадать с оценкой доверительной вероятности для случая распределенной по Стьюденту статистики, второй же, кажется, можно попытаться оценить через какой-нибудь результат наподобие
Chernoff-Hoeffding Theorem, дающий оценку вероятности уклонения эмпирического распределения от любого другого через дивергенцию Кульбака-Лейблера

.
Тогда бы процедура обоснования сводилась бы к:
1) поиску

, минимизирующего

(по
Pinsker's inequality это дает и верхнюю оценку для

);
2) вычислению вероятности уклонения;
3) вычислению нижней границы доверительной вероятности с учетом полученных оценок.
Это как-то очень сильно напоминает Хи-квадрат тестирование, потому, кажется, что "истина где-то рядом".