Имеются равновеликие группы юзеров: тестовая и контрольная. Тестовой группе мы показываем рекламу товара, а в контрольной группе – нет.
По итогу рекламной кампании имеем, например, что конверсия в тестовой группе равна 1.1%, а в контрольной группе – 1%.
Возникает три вопроса:
1. Каким образом оценить вероятность (статзначимость), что разница в конверсиях не случайна, а определена фактом показа рекламы в тестовой группе?
2. Правильно ли считать (в случае подтверждения статзначимости различий), что наше воздействие (показ рекламы) вызвало повышение конверсии на 0.1 пп ?
3. Как получить распределение вероятностей по дельте – значениям пп, на которые повышается конверсия в тестовой группе?
Мои размышления:
1. Если бы мы смотрели на индивидуальную метрику юзера, например, на время проведенное на сайте, то можно было бы сформулировать нулевую гипотезу о том, что распределения в тестовой и контрольной группах имеют равное математическое ожидание. Затем расcчитать p-value. И если
, то отклоняем нулевую гипотезу в пользу альтернативной.
Но тут проблема в том, что конверсия – это отношение кол-ва всех продаж к кол-ву всех показов. То есть, конверсия – это не индивидуальная метрика юзера. Конверсия характеризует в нашем эксперименте всю группу в целом. Как быть в такой ситуации?
Есть идея, что мы можем нагенерить случайных равновеликих выборок юзеров из каждой группы, рассчитать конверсию для каждой выборки и построить распределение конверсий для каждой группы. После этого мы сможем рассчитать p-value. Но я не уверен относительно математической обоснованности данного подхода.
Буду благодарен ссылкам на данную тему. Пока я не нашёл ничего, чтобы полностью разъясняло этот вопрос.
2. Вряд ли в моём примере 0.1 пп – это математическое ожидание uplift-а. По идее, нужно получить распределение вероятностей по пп, и уже из него мы сможешь рассчитать и мат.ожидание и 95%-доверительный интервал для мат.ожидания. Тут мы переходим к п.3.
3. Вот тут пока идей нет.
Прошу подсказки и/или ссылок.