Пусть есть две случайных величины,

и

. Тогда (насколько я помню из теорвера) матожидание вида
![$E[U|X]$ $E[U|X]$](https://dxdy-02.korotkov.co.uk/f/d/1/b/d1b0c085742875d18d24f66ab7d3e29182.png)
есть случайная величина. Вопрос у меня следующий - как правильно будет интерпретировать равенство
![$E[U|X] = 0$ $E[U|X] = 0$](https://dxdy-03.korotkov.co.uk/f/e/1/9/e19a44a5e47007d40db35b12804c5ff082.png)
, если под случайной величиной

понимать ошибку модели линейной регрессии, а под случайной величиной

- объясняющую переменную. Известно, что выполнение этого равенства является базовым предположением линейной регрессии.
То есть какой из следующих вариантов интерпретации является верным:
1) равенство
![$E[U|X] = 0$ $E[U|X] = 0$](https://dxdy-03.korotkov.co.uk/f/e/1/9/e19a44a5e47007d40db35b12804c5ff082.png)
в контексте линейной регрессии равносильно выражению
![$E[U|X = x] = 0, ~\forall x \in R$ $E[U|X = x] = 0, ~\forall x \in R$](https://dxdy-01.korotkov.co.uk/f/4/5/a/45aebcb31e5d95713f220b4a723b99a882.png)
, где

- множество значений случайной величины

; то есть равенство
![$E[U|X] = 0$ $E[U|X] = 0$](https://dxdy-03.korotkov.co.uk/f/e/1/9/e19a44a5e47007d40db35b12804c5ff082.png)
следует понимать как то, что случайная величина
![$E[U|X]$ $E[U|X]$](https://dxdy-02.korotkov.co.uk/f/d/1/b/d1b0c085742875d18d24f66ab7d3e29182.png)
тождественно (на любом элементарном исходе) равна нулю.
2) равенство
![$E[U|X] = 0$ $E[U|X] = 0$](https://dxdy-03.korotkov.co.uk/f/e/1/9/e19a44a5e47007d40db35b12804c5ff082.png)
в контексте линейной регрессии означает, что
![$P(E[U|X] = 0)= 1$ $P(E[U|X] = 0)= 1$](https://dxdy-02.korotkov.co.uk/f/1/3/3/133d09ade66ae31a5d0adc35239fa3ae82.png)
, то есть оно выполняется с вероятностью 1.
Мне первая интерпретация кажется более правдоподобной, но в статистике часто пишут, что случайная величина равна константе, при этом неявно подразумевая, что равенство выполняется с вероятностью 1. Какая интерпретация будет верной в контексте линейной регрессии, первая или вторая?