finanzmaster писал(а):
Zo писал(а):
finanzmaster, то что вы написали, верно для вектора, у компонент которого нулевые мат. ожидания.
К счастью, в моем случае это так

Если считать, что формула
![E\left[ x_{i}x_{j}x_{k}x_{n}\right] = \sigma _{ij}\sigma _{kn}+\sigma _{ik}\sigma _{jn}+\sigma _{in}\sigma _{jk} E\left[ x_{i}x_{j}x_{k}x_{n}\right] = \sigma _{ij}\sigma _{kn}+\sigma _{ik}\sigma _{jn}+\sigma _{in}\sigma _{jk}](https://dxdy-03.korotkov.co.uk/f/a/1/7/a1725faffd377ce454a043617e0d373782.png)
верна, и если
![E\left[ X\right] = \mu E\left[ X\right] = \mu](https://dxdy-03.korotkov.co.uk/f/e/9/9/e99fa11e10bfa0811729ee808ddb7c0a82.png)
, то для нахождения начальных моментов их можно выразить через центральные, а каждый из центральных моментов найти по аналогичным формулам.
Добавлено спустя 25 минут 7 секунд:PAV писал(а):
Похоже на правду, но надо убедиться. Строго говоря, задачу нужно решать так. Нужно взять матрицу ковариаций и привести ее к диагональному виду. Это даст линейное преобразование имеющегося вектора, результат которого будет вектор с независимыми (и нормально распределенными) компонентами. После этого задача решается просто.
Подробности можно прочитать в учебнике Ширяева "Вероятность" в главе "Гауссовские системы", в которой рассматривается как раз такое преобразование многомерных нормальных случайных векторов.
Скажите, Уважаемый, а вот вы берете и из 4-х нормальных величин, зависимых между собой, составляете вектор и говорите, что он гауссовский. А это правомерно, строго говоря?