Это всего лишь формальная запись результатов работы классификатора, или аппроксиматора.
В первом случае, на вход классификатора подаётся вектор информативных признаков классифицируемого наблюдения

, а на выходе, алгоритм классификатора формирует несколько результативных переменных
![$\mathbb{P}[Y = a|X]$ $\mathbb{P}[Y = a|X]$](https://dxdy-04.korotkov.co.uk/f/3/d/f/3df43edb6fd334529c1bbdc2a0d07c0982.png)
,
![$\mathbb{P}[Y = b|X]$ $\mathbb{P}[Y = b|X]$](https://dxdy-02.korotkov.co.uk/f/9/4/9/9495621f7ebe9c53f167ba41e8f2e2f582.png)
,
![$\mathbb{P}[Y = c|X]$ $\mathbb{P}[Y = c|X]$](https://dxdy-02.korotkov.co.uk/f/1/c/d/1cd4a7f036bb579af11dc2ae42e7e99f82.png)
, каждая из них определяет вероятность принадлежности наблюдения соответствующему классу. Сравнивая их можно определить наиболее вероятный класс наблюдения и вероятность ошибки. (Это так в идеале, на практике такой классификатор построить не просто, в том смысле, что вычисляемые вероятности оказываются далёкими от действительности. Многие алгоритмы вообще не позволяют оценить вероятности, а сразу выдают ответ, например в виде бинарной переменной).
Во втором случае решается задача регрессии. На вход аппроксиматора, так же, подаётся вектор информативных признаков, а на выходе, алгоритм вычисляет прогноз
![$\mathbb{E}[Y|X]$ $\mathbb{E}[Y|X]$](https://dxdy-04.korotkov.co.uk/f/3/0/6/30635061af40a216d213ed1b3812f8e882.png)
. Чаще всего это именно условное мат. ожидание, так как для нормально распределённых остатков это будет ММП-оценка прогноза. В этом случае, по хорошему, желательно оценить ещё и дисперсию прогноза, но это не всегда получается.
Смысл всего этого в том, что истинный класс наблюдения неизвестен, классификатор позволяет оценить только его вероятность принадлежности к заданному классу. Так же и истинное значение объясняемой переменной

не известно. Аппроксиматор даёт лишь прогноз её значения, с некоторой точностью.
Условные вероятности рассматриваются в мат. статистике. Там прямо про них и читайте, зачем пытаться найти их где то ещё.