Me gustaría aprender a calcular el valor esperado de una variable aleatoria continua. Parece que el valor esperado es $$ E [X] = \ int _ {- \ infty} ^ {\ infty} xf (x) \ mathrm {d} x $$ donde $ f (x) $ es la función de densidad de probabilidad de $ X $.

Suponga que la función de densidad de probabilidad de $ X $ es $$ f (x) = \ frac {1} {\ sqrt {2 \ pi}} e ^ {\ frac {- x ^ {2}} {2}} $$, que es la densidad de la distribución normal estándar.

Entonces, primero conectaría el PDF y obtendría $$ E [X] = \ int_ { – \ infty} ^ {\ infty} x \ frac {1} {\ sqrt {2 \ pi}} e ^ {\ frac {-x ^ {2}} {2}} \ mathrm {d} x $$ que es una ecuación bastante desordenada. La constante $ \ displaystyle \ frac {1} {\ sqrt {2 \ pi}} $ se puede mover fuera de la integral, dando $$ E [X] = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} xe ^ {\ frac {-x ^ {2}} {2}} \ mathrm {d} x. $$

Me quedo atascado aquí. ¿Cómo calculo la integral? ¿Estoy haciendo esto correctamente hasta ahora? ¿Es la forma más sencilla de obtener el valor esperado?

Comentarios

  • el título de su pregunta es engañoso. De hecho, está intentando calcular el valor esperado de una variable aleatoria normal estándar. También puede calcular el valor esperado de una función de un RV. Prefiero poner el título: » Cómo calcular el valor esperado de una distribución normal estándar. » O » Cómo calcular el valor esperado de una variable aleatoria continua. »
  • @Gu ð mundurEinarsson corregido.
  • » Me quedo atascado aquí. ¿Cómo calculo la integral? » Encuentre la derivada de $ -e ^ {- \ frac {x ^ 2} {2}} $. (No, no estoy bromeando y sugiriendo un trabajo innecesario; lo digo en serio; ¡hazlo!). Luego, mira fijamente la derivada que has encontrado.

Respuesta

Ya casi has terminado, sigue tu último paso:

$$ E [X] = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} xe ^ {\ displaystyle \ frac { -x ^ {2}} {2}} \ mathrm {d} x \\ = – \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ { -x ^ 2/2} d (- \ frac {x ^ 2} {2}) \\ = – \ frac {1} {\ sqrt {2 \ pi}} e ^ {- x ^ 2/2} \ mid _ {- \ infty} ^ {\ infty} \\ = 0 $$.

O puede usar directamente el hecho de que $ xe ^ {- x ^ 2/2} $ es una función impar y los límites de la integral son simetría.

Comentarios

  • El argumento de simetría solo funciona si ambas mitades son convergentes.
  • ¿Podría explicar qué sucede en la segunda fila?
  • El comentario de Glen ‘ es correcto si no es convergente, entonces el cambio de variables no funcionará
  • La segunda fila es igual a la primera fila ya que $ d (- \ frac {x ^ 2} {2}) = – xdx $ también tenga en cuenta el signo negativo al principio. Entonces puede pensar en un cambio de variable para la integración, luego lo vuelve a cambiar ya que los límites no cambiaron. O puede utilizar integrar por partes. Y recuerde $ \ int_ {a} ^ {b} e ^ y dy = e ^ y \ mid_ {a} ^ {b} $
  • Para usar la simetría para obtener la media, debe saber que $ \ int_0 ^ \ infty xf (x) dx $ converge; lo hace en este caso, pero en general no puede ‘ asumirlo. Por ejemplo, el argumento de simetría diría que la media del Cauchy estándar es 0, pero no ‘ t tiene uno.

Answer

Dado que desea aprender métodos para calcular las expectativas y desea conocer algunas formas sencillas, disfrutará usando el función de generación de momento (mgf)

$$ \ phi (t) = E [e ^ {tX}]. $$

El método funciona especialmente bien cuando la función de distribución o su densidad se dan como exponenciales. En este caso, no tiene que hacer ninguna integración después de observar

$$ t ^ 2/2 – \ left (x – t \ right) ^ 2/2 = t ^ 2 / 2 + (-x ^ 2/2 + tx – t ^ 2/2) = -x ^ 2/2 + tx, $$

porque, escribiendo la función de densidad normal estándar en $ x $ como $ C e ^ {- x ^ 2/2} $ (para un $ C $ constante cuyo valor no necesitará saber), esto le permite reescribir su mgf como

$$ \ phi ( t) = C \ int_ \ mathbb {R} e ^ {tx} e ^ {- x ^ 2/2} dx = C \ int_ \ mathbb {R} e ^ {- x ^ 2/2 + tx} dx = e ^ {t ^ 2/2} C \ int_ \ mathbb {R} e ^ {- (xt) ^ 2/2} dx. $$

En el lado derecho, después de $ e ^ {t ^ 2/2} $ término, reconocerá la integral de la probabilidad total de una distribución Normal con media $ t $ y varianza unitaria, que por lo tanto es $ 1 $. En consecuencia

$$ \ phi (t) = e ^ {t ^ 2/2}. $$

Debido a que la densidad normal se vuelve pequeña en valores grandes tan rápidamente, no hay problemas de convergencia independientemente del valor de $ t $. $ \ phi $ es reconociblemente analítico en $ 0 $, lo que significa que es igual a su serie MacLaurin

$$ \ phi (t) = e ^ {t ^ 2/2} = 1 + (t ^ 2/2 ) + \ frac {1} {2} \ left (t ^ 2/2 \ right) ^ 2 + \ cdots + \ frac {1} {k!} \ left (t ^ 2/2 \ right) ^ k + \ cdots.$$

Sin embargo, dado que $ e ^ {tX} $ converge absolutamente para todos los valores de $ tX $, también podemos escribir

$$ E [e ^ {tX}] = E \ left [1 + tX + \ frac {1} {2} (tX) ^ 2 + \ cdots + \ frac {1} {n!} (TX) ^ n + \ cdots \ right] \\ = 1 + E [X] t + \ frac {1} {2} E [X ^ 2] t ^ 2 + \ cdots + \ frac {1} {n!} E [X ^ n] t ^ n + \ cdots. $$

Dos series de potencias convergentes pueden ser iguales solo si son iguales término por término, de ahí (comparando los términos que involucran $ t ^ {2k} = t ^ n $)

$$ \ frac {1} {(2k)!} E [X ^ {2k}] t ^ {2k} = \ frac {1} {k!} (t ^ 2/2) ^ k = \ frac {1 } {2 ^ kk!} T ^ {2k}, $$

lo que implica

$$ E [X ^ {2k}] = \ frac {(2k)!} { 2 ^ kk!}, \ K = 0, 1, 2, \ ldots $$

(y todas las expectativas de potencias impares de $ X $ son cero). Prácticamente sin esfuerzo, ha obtenido las expectativas de todas las potencias integrales positivas de $ X $ a la vez.


Las variaciones de esta técnica pueden funcionar igual de bien en algunos casos, como $ E [1 / (1-tX)] = E [1 + tX + (tX) ^ 2 + \ cdots + (tX) ^ n + \ cdots] $, siempre que el rango de $ X $ sea adecuadamente limitado. Sin embargo, los mgf (y su pariente cercano la función característica $ E [e ^ {itX}] $) son tan útiles que los encontrará en tablas de propiedades distributivas, como en la entrada de Wikipedia sobre la distribución normal .

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *