Eu gostaria de aprender como calcular o valor esperado de uma variável aleatória contínua. Parece que o valor esperado é $$ E [X] = \ int _ {- \ infty} ^ {\ infty} xf (x) \ mathrm {d} x $$ onde $ f (x) $ é a função de densidade de probabilidade de $ X $.
Suponha que a função de densidade de probabilidade de $ X $ seja $$ f (x) = \ frac {1} {\ sqrt {2 \ pi}} e ^ {\ frac {- x ^ {2}} {2}} $$ que é a densidade da distribuição normal padrão.
Então, eu primeiro conectaria o PDF e obteria $$ E [X] = \ int_ { – \ infty} ^ {\ infty} x \ frac {1} {\ sqrt {2 \ pi}} e ^ {\ frac {-x ^ {2}} {2}} \ mathrm {d} x $$ que é uma equação de aparência um tanto confusa. A constante $ \ displaystyle \ frac {1} {\ sqrt {2 \ pi}} $ pode ser movida para fora da integral, dando $$ E [X] = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} xe ^ {\ frac {-x ^ {2}} {2}} \ mathrm {d} x. $$
Eu fico preso aqui. Como faço para calcular o integral? Estou fazendo isso corretamente até agora? É a maneira mais simples de obter o valor esperado?
Comentários
- o título da sua pergunta é enganoso. Na verdade, você está tentando calcular o valor esperado de uma variável aleatória normal padrão. Você também pode calcular o valor esperado de uma função de um RV. Prefiro colocar o título: ” Como calcular o valor esperado de uma distribuição normal padrão. ” Ou ” Como calcular o valor esperado de uma variável aleatória contínua. ”
- @Gu ð mundurEinarsson corrigido.
- ” Eu fico preso aqui. Como faço para calcular a integral? ” Encontre a derivada de $ -e ^ {- \ frac {x ^ 2} {2}} $. (Não, não estou sendo jocoso e sugerindo trabalho desnecessário; estou falando sério; Just Do It!). Em seguida, olhe com atenção para a derivada que você encontrou.
Resposta
Você está quase lá, siga sua última etapa:
$$ E [X] = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} xe ^ {\ displaystyle \ frac { -x ^ {2}} {2}} \ mathrm {d} x \\ = – \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ { -x ^ 2/2} d (- \ frac {x ^ 2} {2}) \\ = – \ frac {1} {\ sqrt {2 \ pi}} e ^ {- x ^ 2/2} \ mid _ {- \ infty} ^ {\ infty} \\ = 0 $$.
Ou você pode usar diretamente o fato de que $ xe ^ {- x ^ 2/2} $ é uma função ímpar e os limites da integral são simetria.
Comentários
- O argumento da simetria só funciona se ambas as metades forem convergentes.
- Você poderia explicar o que acontece na segunda linha?
- O comentário de Glen ‘ está correto se não for convergente, então a mudança de variáveis não funcionará
- A segunda linha é igual à primeira linha, pois $ d (- \ frac {x ^ 2} {2}) = – xdx $ também observe o sinal negativo no início. Então você pode pensar na mudança de variável para integração, então você pode alterá-la de volta, pois os limites não mudaram. Ou você pode usar a integração por partes. E lembre-se de $ \ int_ {a} ^ {b} e ^ y dy = e ^ y \ mid_ {a} ^ {b} $
- Para usar a simetria para obter a média, você precisa saber que $ \ int_0 ^ \ infty xf (x) dx $ converges – neste caso, sim, mas mais geralmente você não pode ‘ assumir isso. Por exemplo, o argumento da simetria diria que a média do Cauchy padrão é 0, mas não ‘ não tem uma.
Resposta
Visto que deseja aprender métodos para calcular expectativas e deseja conhecer algumas maneiras simples, você gostará de usar o função geradora de momento (mgf)
$$ \ phi (t) = E [e ^ {tX}]. $$
O método funciona especialmente bem quando a função de distribuição ou sua densidade são dadas como exponenciais. Nesse caso, você não precisa realmente fazer nenhuma integração depois de observar
$$ t ^ 2/2 – \ left (x – t \ right) ^ 2/2 = t ^ 2 / 2 + (-x ^ 2/2 + tx – t ^ 2/2) = -x ^ 2/2 + tx, $$
porque, escrevendo a função de densidade normal padrão em $ x $ como $ C e ^ {- x ^ 2/2} $ (para uma constante $ C $ cujo valor você não precisará saber), isso permite que você reescreva seu mgf como
$$ \ phi ( t) = C \ int_ \ mathbb {R} e ^ {tx} e ^ {- x ^ 2/2} dx = C \ int_ \ mathbb {R} e ^ {- x ^ 2/2 + tx} dx = e ^ {t ^ 2/2} C \ int_ \ mathbb {R} e ^ {- (xt) ^ 2/2} dx. $$
No lado direito, seguindo o $ e ^ {t ^ 2/2} $ term, você reconhecerá a integral da probabilidade total de uma distribuição Normal com $ t $ média e variância unitária, que portanto é $ 1 $. Consequentemente
$$ \ phi (t) = e ^ {t ^ 2/2}. $$
Como a densidade normal fica pequena em valores grandes tão rapidamente, não há problemas de convergência, independentemente do valor de $ t $. $ \ phi $ é reconhecidamente analítico em $ 0 $, o que significa que é igual a sua série MacLaurin
$$ \ phi (t) = e ^ {t ^ 2/2} = 1 + (t ^ 2/2 ) + \ frac {1} {2} \ left (t ^ 2/2 \ right) ^ 2 + \ cdots + \ frac {1} {k!} \ left (t ^ 2/2 \ right) ^ k + \ cdots.$$
No entanto, como $ e ^ {tX} $ converge absolutamente para todos os valores de $ tX $, também podemos escrever
$$ E [e ^ {tX}] = E \ left [1 + tX + \ frac {1} {2} (tX) ^ 2 + \ cdots + \ frac {1} {n!} (TX) ^ n + \ cdots \ right] \\ = 1 + E [X] t + \ frac {1} {2} E [X ^ 2] t ^ 2 + \ cdots + \ frac {1} {n!} E [X ^ n] t ^ n + \ cdots. $$
Duas séries de potências convergentes podem ser iguais apenas se forem iguais termo a termo, de onde (comparando os termos envolvendo $ t ^ {2k} = t ^ n $)
$$ \ frac {1} {(2k)!} E [X ^ {2k}] t ^ {2k} = \ frac {1} {k!} (t ^ 2/2) ^ k = \ frac {1 } {2 ^ kk!} T ^ {2k}, $$
implicando
$$ E [X ^ {2k}] = \ frac {(2k)!} { 2 ^ kk!}, \ K = 0, 1, 2, \ ldots $$
(e todas as expectativas de potências ímpares de $ X $ são zero). Praticamente sem esforço, você obteve as expectativas de todas as potências integrais positivas de $ X $ de uma vez.
As variações desta técnica podem funcionar tão bem em alguns casos, como $ E [1 / (1-tX)] = E [1 + tX + (tX) ^ 2 + \ cdots + (tX) ^ n + \ cdots] $, desde que o intervalo de $ X $ seja adequadamente limitado. O mgf (e seu parente próximo a função característica $ E [e ^ {itX}] $) são geralmente tão úteis, porém, que você os encontrará fornecidos em tabelas de propriedades de distribuição, como em a entrada da Wikipedia na distribuição normal .