2014 dxdy logo

Научный форум dxdy

Математика, Физика, Computer Science, Machine Learning, LaTeX, Механика и Техника, Химия,
Биология и Медицина, Экономика и Финансовая Математика, Гуманитарные науки




 
 оценки стд.отклонений для зависимых параметров
Сообщение17.02.2009, 19:04 
Есть функция $f=f(p_1,p_2,p_3,...,p_n) и есть оценки стандартных отклонений для ее параметров p1,p2,... Я хочу вычислять стандартное отклонение для самой функции f. Для этого люди часто пользуются приближенной формулой:

$\sigma^2_f = \sum\limits_{i=1}^n (df/dp_i)^2 \sigma^2_{p_i}

Но есть более строгая формула:

$\sigma^2_f = \sum\limits_{i=1}^n (df/dp_i)^2 \sigma^2_{p_i} + 2\sum\limits_{i<j} (df/dp_i)(df/dp_j) cov(p_i,p_j)

Вопрос такой: вторая формула точная или тоже приближенная?

И еще хочется посмотреть ее строгий вывод.

 
 
 
 
Сообщение17.02.2009, 22:38 
1). Вторая формула -- не точнее и не приближённее первой, она просто к более общему случаю относится. Ежели исходные величины независимы -- считай по первой, в отвратительном же случае -- считай по второй.

(строго говоря, речь о не независимости, а о нескоррелированности, но с практической точки зрения это одно и то же. Ибо из независимости формально следует нескоррелированность, обратное неверно, но нескореллированные и притом независимые величины -- это откровенная экзотика.)

2). А как вообще можно строго доказать откровенно нестрогую формулу??! сразу же и откровенно скажем -- никак.

Конкретно применительно к этому случаю. Поскольку там упоминаются производные, то откровенно предполагается, что в первом приближении та самая функция $f$ -- линейна. Т.е. что она практически линейна в той области, в которой её аргументы хоть сколько-то вероятны.

3). Ну и считаем ту функцию линейной:

$f(p_1,p_2,\ldots)=\gamma+\sum\beta_kq_k,$

где $\beta_k=f'_{p_k}$, а $q_k=p_k-M[p_k]$, а гамма, как постоянный сдвиг, на дисперсию никак не влияет. И выкинем его нафик. И тогда в его отсутствии дисперсии сводятся к матожиданиям квадрата. Что в точности порождает Вашу вторую формулу. А в независимом -- и первую.

 
 
 
 
Сообщение18.02.2009, 07:55 
ewert писал(а):
1). Вторая формула -- не точнее и не приближённее первой, она просто к более общему случаю относится. Ежели исходные величины независимы -- считай по первой, в отвратительном же случае -- считай по второй.

(строго говоря, речь о не независимости, а о нескоррелированности, но с практической точки зрения это одно и то же. Ибо из независимости формально следует нескоррелированность, обратное неверно, но нескореллированные и притом независимые величины -- это откровенная экзотика.)

Спасибо, это все понятно было.

ewert писал(а):
2). А как вообще можно строго доказать откровенно нестрогую формулу??! сразу же и откровенно скажем -- никак.

Вот я и спрашивал, строгая она или нет.

ewert писал(а):
Конкретно применительно к этому случаю. Поскольку там упоминаются производные, то откровенно предполагается, что в первом приближении та самая функция $f$ -- линейна. Т.е. что она практически линейна в той области, в которой её аргументы хоть сколько-то вероятны.

3). Ну и считаем ту функцию линейной:

$f(p_1,p_2,\ldots)=\gamma+\sum\beta_kq_k,$

где $\beta_k=f'_{p_k}$, а $q_k=p_k-M[p_k]$, а гамма, как постоянный сдвиг, на дисперсию никак не влияет. И выкинем его нафик. И тогда в его отсутствии дисперсии сводятся к матожиданиям квадрата. Что в точности порождает Вашу вторую формулу. А в независимом -- и первую.


Спасибо за пояснение. То есть, получается, что можно функцию разложить и до квадратичных членов. Интересно как тогда будет выглядеть выражение для сигмы и насколько отличающийся результат оно будет давать.

Я ищу книжку где про это было бы хоть что-то написано, но пока безуспешно. И гуглить особо не получается - неясно какие ключевые слова искать.

 
 
 [ Сообщений: 3 ] 


Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group