Si $ X \ sim \ text {Gamma} (\ alpha, \ beta) $ , ¿cómo podría encontrar $ E \ left (\ frac 1 {X ^ 2} \ right) $ ?
Comentarios
Respuesta
Suponiendo que se trata de una variable aleatoria de distribución Gamma con forma $ \ alpha > 0 $ y tasa $ \ beta > 0 $ parámetros, es decir $ X \ sim Gamma (\ alpha, \ beta) $, puede encontrar $ \ mathbb {E} [\ frac {1} {X ^ 2}] $ de la siguiente manera:
Para cualquier variable aleatoria X de distribución continua (como Gamma) para la cual $ f $ denota su función de densidad de probabilidad (en su ejemplo $ f (x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 1} e ^ {- \ beta x} $) y para cualquier función $ g $ de esta variable (en su caso $ g (x) = \ frac {1} {x ^ 2 } = x ^ {- 2} $), contiene: $$ \ mathbb {E} [g (x)] = \ int \ limits _ {- \ infty} ^ {+ \ infty} g (x) f (x ) dx $$
En su ejemplo, se simplifica mucho (preste atención a $ -3 $): $$ g (x) f ( x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 3} e ^ {- \ beta x} $$ La fracción no depende de $ x $ , por lo que se puede poner fuera de una integral.
Por cierto, para la distribución discreta es muy similar: $$ \ mathbb {E} [g (x)] = \ sum \ limits_ {x \ in \ mathcal {X}} g (x) f (x), ~~ \ text {donde} ~ \ mathcal {X} ~ \ text {denota soporte para X (conjunto de valores que puede tomar)} $$
No te mantendré en suspenso por más tiempo. Primero que nada, recuerda que $ \ Gamma (\ alpha + 1) = \ alpha \ cdot \ Gamma (\ alpha) $.
Sea $ f _ {\ alpha} (x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 1} e ^ {- \ beta x} $. La combinación de estos dos resultados en una simple observación: $$ x \ cdot f _ {\ alpha} (x) = \ frac {\ alpha} {\ beta} \ cdot f _ {\ alpha + 1} (x) $$ Consecutivamente: $ $ \ frac {f _ {\ alpha + 1} (x)} {x} = \ frac {\ beta} {\ alpha} \ cdot f _ {\ alpha} (x) $$ Usando esto dos veces, obtendrá el resultado :
$$ \ frac {f _ {\ alpha} (x)} {x ^ 2} = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {f _ {\ alpha- 1} (x)} {x} = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} {\ alpha-2} \ cdot f _ {\ alpha-2} (x) $$ En última instancia (como $ f _ {\ alpha-2} (x) $ también es PDF, cuya integral es igual a $ 1 $): $$ \ mathbb {E} (\ frac {1} {X ^ 2}) = \ int \ limits_ { – \ infty} ^ {+ \ infty} \ frac {f _ {\ alpha} (x)} {x ^ 2} dx = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} { \ alpha-2} \ cdot \ int \ limits _ {- \ infty} ^ {+ \ infty} f _ {\ alpha-2} (x) dx = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} {\ alpha-2} $$ Esta solución anterior es para este caso particular, pero como whuber señaló , el caso más general para cualquier $ p \ in \ mathbb {R}, ~ p > 0 $ reales y positivos contiene: $$ \ mathbb {E} (X ^ p) = \ beta ^ p \ cdot \ frac {\ Gamma (\ alpha + p)} {\ Gamma (\ alpha)} $$
Comentarios
- @TJ Phu Háganos saber con qué problema realmente tiene, ¿tal vez con el cálculo de esta integral? De todos modos, háganoslo saber. Sin embargo, intente seguir los comentarios de gung y Silverfish y mejore el diseño general de la pregunta.
- @TJ Phu Quizás sea mi primer comentario sobre hacer raw la integración fue un poco engañosa. Déjame saber si entiendes completamente mi solución (simplemente aceptando / marcando mi respuesta o whuber).
Responder
Lo haría de manera perezosa: comenzando con una definición y mirando detenidamente lo que sigue, para mira si alguien ya me ha mostrado la respuesta. En lo que sigue no se necesitan cálculos en absoluto, y solo se requieren las reglas más simples (de exponentes e integrales) para seguir el álgebra.
Comencemos con la distribución gamma.Elija una unidad de medida de $ X $ en la que $ \ beta = 1 $ , para que podamos digamos que $ X $ tiene una distribución $ \ Gamma (\ alpha) $ . Esto significa que la densidad es positiva solo para valores positivos, donde el elemento de densidad de probabilidad viene dado por
$$ f_ \ alpha (x) dx = \ frac {1 } {\ Gamma (\ alpha)} x ^ {\ alpha} e ^ {- x} \ frac {dx} {x}. $$
(Si tiene curiosidad, la expresión $ dx / x $ se explica en https://stats.stackexchange.com/a/185709 . Si no le gusta, reemplace $ x ^ \ alpha dx / x $ por $ x ^ { \ alpha-1} dx $ .)
Recuerde que la constante de normalización está ahí para hacer la integral de $ f_ \ alpha (x) dx $ unidad, de donde podemos deducir que
$$ \ begin {alineado} \ Gamma (\ alpha) & = \ Gamma (\ alpha) (1) = \ Gamma (\ alpha) \ int_0 ^ \ infty f_ \ alpha (x) dx = \ frac {\ Gamma (\ alpha)} {\ Gamma (\ alpha )} \ int_0 ^ \ infty x ^ {\ alpha} e ^ {- x} \ frac {dx} {x} \\ & = \ int_0 ^ \ infty x ^ { \ alpha} e ^ {-x} \ frac {dx} {x}. \ end {alineado} \ etiqueta {1} $$
No importa qué número $ \ Gamma (\ alpha) $ en realidad lo es. Basta con ver que está bien definido y es finito siempre que $ \ alpha \ gt 0 $ y de lo contrario diverja.
Ahora pasemos a las reglas de la expectativa. La » ley del estadístico inconsciente » dice la expectativa de cualquier función de $ X $ , como $ X ^ p $ para alguna potencia $ p $ (que suele ser positivo pero puede ser negativo e incluso complejo), se obtiene integrando esa función de $ x $ con la densidad:
$$ E [X ^ p] = \ int_0 ^ \ infty x ^ p \ frac {1} {\ Gamma (\ alpha)} x ^ {\ alpha} e ^ {- x} \ frac { dx} {x}. $$
Es hora de mirar. Ignorando la integral, el integrando es una expresión bastante simple. Vamos a reescribirlo usando las reglas del álgebra y, en el proceso, mover ese valor constante de $ 1 / \ Gamma (\ alpha) $ de la integral:
$$ E [X ^ p] = \ frac {1} {\ Gamma ( \ alpha)} \ int_0 ^ \ infty x ^ {p + \ a lpha} e ^ {- x} \ frac {dx} {x}. \ tag {2} $$
Eso debería parecer muy familiar: eso » es como otra función de densidad de distribución Gamma, pero con la potencia $ p + \ alpha $ en lugar de $ \ alpha $ . La ecuación $ (1) $ nos dice inmediatamente , sin pensar ni calcular más, que
$$ \ int_0 ^ \ infty x ^ {p + \ alpha} e ^ {- x} \ frac {dx} {x} = \ Gamma (p + \ alpha). $$
Conectando esto al lado derecho de $ (2) $ da como resultado
$$ E [X ^ p] = \ frac {\ Gamma (p + \ alpha)} {\ Gamma (\ alpha)}. $$
Parece que es mejor que (la parte real de) $ p + \ alpha \ gt 0 $ para que esto converja, como se indicó anteriormente.
Como una doble verificación, podemos usar nuestra fórmula para calcular los primeros momentos y compararlos con, digamos, qué Wikipedia dice . Para la media obtenemos
$$ E \ left (X ^ 1 \ right) = \ frac {\ Gamma (1+ \ alpha)} {\ Gamma (\ alpha)} = \ alpha $$
y para el segundo (crudo) momento,
$$ E \ left (X ^ 2 \ right) = \ frac {\ Gamma (2+ \ alpha)} {\ Gamma (\ alpha)} = \ alpha (\ alpha + 1). $$
En consecuencia, la varianza es $$ E \ left (X ^ 2 \ right) – E (X) ^ 2 = \ alpha (\ alpha + 1) – \ alpha ^ 2 = \ alpha. $$
Estos resultados concuerdan perfectamente con la autoridad. No hay problemas de convergencia porque desde $ \ alpha \ gt 0 $ , ambos $ \ alpha + 1 \ gt 0 $ y $ \ alpha + 2 \ gt 0 $ .
Ahora puede conectar $ p = -2 $ y saque sus conclusiones sobre la pregunta original. Recuerde verificar las condiciones bajo las cuales existe la respuesta.Y no olvides cambiar las unidades de $ X $ por las originales: eso multiplicará tu respuesta por $ \ beta ^ p $ (o $ \ beta ^ {- p} $ , dependiendo de lo que pienses que $ \ beta $ es una escala o una tasa ).
[self-study]
& lea su wiki . Luego, díganos lo que ha comprendido hasta ahora, lo que ‘ ha probado & donde ‘ estás atascado. ‘ te daremos sugerencias para ayudarte a despegarte.$...$
; consulte nuestra ayuda para la edición