Это всего лишь формальная запись результатов работы классификатора, или аппроксиматора.
В первом случае, на вход классификатора подаётся вектор информативных признаков классифицируемого наблюдения
, а на выходе, алгоритм классификатора формирует несколько результативных переменных
,
,
, каждая из них определяет вероятность принадлежности наблюдения соответствующему классу. Сравнивая их можно определить наиболее вероятный класс наблюдения и вероятность ошибки. (Это так в идеале, на практике такой классификатор построить не просто, в том смысле, что вычисляемые вероятности оказываются далёкими от действительности. Многие алгоритмы вообще не позволяют оценить вероятности, а сразу выдают ответ, например в виде бинарной переменной).
Во втором случае решается задача регрессии. На вход аппроксиматора, так же, подаётся вектор информативных признаков, а на выходе, алгоритм вычисляет прогноз
. Чаще всего это именно условное мат. ожидание, так как для нормально распределённых остатков это будет ММП-оценка прогноза. В этом случае, по хорошему, желательно оценить ещё и дисперсию прогноза, но это не всегда получается.
Смысл всего этого в том, что истинный класс наблюдения неизвестен, классификатор позволяет оценить только его вероятность принадлежности к заданному классу. Так же и истинное значение объясняемой переменной
не известно. Аппроксиматор даёт лишь прогноз её значения, с некоторой точностью.
Условные вероятности рассматриваются в мат. статистике. Там прямо про них и читайте, зачем пытаться найти их где то ещё.