Уважаемый PAV, спасибо, что Вы присоединились к обсуждению! Некоторые предыдущие топики, в которых Вы даёте разъяснения, я уже проглядел, но конкретно своего вопроса не нашёл.
PAV писал(а):
На самом деле можно сделать следующее любопытное построение. Можно легко сделать вероятностный метод отбора, который из двух классов опытов (тех, в которых B произошло и тех, в которых оно не произошло) отбирает опыты для наблюдения так, чтобы поддерживать заранее заданное соотношение между количествами первых и вторых. Тем самым он делает выборку опытов, в которых вероятность B будет заранее заданной! Например, если будет брать их поровну, то по этой наблюдаемой группе событий вероятность B будет уже равна 0.5.
Считая частоту события A по таким образом сконструированной системе событий, мы получим вероятность A при условии заранее заданной вероятности B. Решение легко получается по формуле полной вероятности:

Не знаю, является ли это тем, что Вы хотели.
— Неисключено, что именно эту формулу можно положить в основу обобщения формул Байеса. Однако дело тут не только в формулах... Результат Байеса есть теорема, а не просто набор расчётных формул. Именно поэтому я процитировал выше не только данную Вами формулу (2), но и условия, при которых она иммет смысл. Назовём всё это вместе
Первой теоремой PAV, доказательство которой не вызывает сомнений.
Рассмотрим теперь немного другое (?) построение... В системе, где происходят случайные события, проведён некоторый случайный тест. В результате этого произошло
стартовое тестовое событие 
, остающееся для нас однако (как событие) неизвестным. Не смотря на то, что мы не имеем точного представления о стартовом тестовом событии-переменной, нам даётся возможность судить об этом событии в ретроспективе другого события

, имеющего возможно совершенно иную природу, но определеного чётко. (Между

и

такая же разница как, например, между

и

.) В результате возможных суждений мы приходим к выводу, что после того как стартовое тестовое событие произошло, вероятность события

изменилась с априорно известной величины

до перерасчитанной величины

.
Первая теорема Кролика. Если в результате некоторого случайного теста

стало известно, что вероятность события

изменила своё значение с

на

, то вероятность произвольного события

может быть скорректирована по формуле:

.
Вопрос: эквивалентны ли эти две теоремы (PAV и Кролика)?
Интересно, что формула (3), являясь неким перепевом формулы (2), разумно удовлетворяет сразу трём случаям: 1) при

имеем

; 2) при

имеем

; 3) при

имеем

.