Si $ X \ sim \ text {Gamma} (\ alpha, \ beta) $ , comment pourrais-je trouver $ E \ left (\ frac 1 {X ^ 2} \ right) $ ?
Commentaires
Réponse
En supposant que vous « concerniez une variable aléatoire de distribution Gamma de forme $ \ alpha > 0 $ et taux $ \ beta > 0 $ paramètres, cest-à-dire $ X \ sim Gamma (\ alpha, \ beta) $, vous pouvez trouver $ \ mathbb {E} [\ frac {1} {X ^ 2}] $ de la manière suivante:
Pour toute variable aléatoire X de distribution continue (comme Gamma) pour laquelle $ f $ désigne sa fonction de densité de probabilité (dans votre exemple $ f (x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 1} e ^ {- \ beta x} $) et pour toute fonction $ g $ de cette variable (dans votre cas $ g (x) = \ frac {1} {x ^ 2 } = x ^ {- 2} $), il contient: $$ \ mathbb {E} [g (x)] = \ int \ limits _ {- \ infty} ^ {+ \ infty} g (x) f (x ) dx $$
Dans votre exemple, cela simplifie beaucoup (faites attention à $ -3 $): $$ g (x) f ( x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 3} e ^ {- \ beta x} $$ La fraction ne dépend pas de $ x $ , donc il peut être mis en dehors dune intégrale.
Au fait, pour une distribution discrète, cest très similaire: $$ \ mathbb {E} [g (x)] = \ sum \ limits_ {x \ in \ mathcal {X}} g (x) f (x), ~~ \ text {où} ~ \ mathcal {X} ~ \ text {indique la prise en charge de X (ensemble de valeurs quil peut prendre)} $$
Je ne vous tiendrai plus en haleine. Tout dabord, rappelons que $ \ Gamma (\ alpha + 1) = \ alpha \ cdot \ Gamma (\ alpha) $.
Soit $ f _ {\ alpha} (x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 1} e ^ {- \ beta x} $. La combinaison de ces deux résultats en une simple observation: $$ x \ cdot f _ {\ alpha} (x) = \ frac {\ alpha} {\ beta} \ cdot f _ {\ alpha + 1} (x) $$ Consécutivement: $ $ \ frac {f _ {\ alpha + 1} (x)} {x} = \ frac {\ beta} {\ alpha} \ cdot f _ {\ alpha} (x) $$ En utilisant ceci deux fois, vous obtiendrez le résultat :
$$ \ frac {f _ {\ alpha} (x)} {x ^ 2} = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {f _ {\ alpha- 1} (x)} {x} = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} {\ alpha-2} \ cdot f _ {\ alpha-2} (x) $$ En fin de compte (comme $ f _ {\ alpha-2} (x) $ est aussi PDF dont lintégrale est égale à $ 1 $): $$ \ mathbb {E} (\ frac {1} {X ^ 2}) = \ int \ limits_ { – \ infty} ^ {+ \ infty} \ frac {f _ {\ alpha} (x)} {x ^ 2} dx = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} { \ alpha-2} \ cdot \ int \ limits _ {- \ infty} ^ {+ \ infty} f _ {\ alpha-2} (x) dx = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} {\ alpha-2} $$ Cette solution ci-dessus est pour ce cas particulier, mais comme la souligné whuber , le cas plus général pour tout $ p réel et positif \ in \ mathbb {R}, ~ p > 0 $ il contient: $$ \ mathbb {E} (X ^ p) = \ beta ^ p \ cdot \ frac {\ Gamma (\ alpha + p)} {\ Gamma (\ alpha)} $$
Commentaires
- @TJ Phu Faites-nous savoir avec quel problème vous avez vraiment, peut-être avec le calcul de cette intégrale? Quoi quil en soit, faites-le nous savoir. Cependant, essayez de suivre les commentaires de gung et Silverfish et daméliorer la mise en page générale de la question.
- @TJ Phu Peut-être ma toute première remarque à propos du raw lintégration était un peu trompeuse. Faites-moi savoir si vous comprenez parfaitement ma solution (simplement en acceptant / en cochant ma ou ma réponse).
Réponse
Je ferais les choses paresseusement: en commençant par une définition et en regardant attentivement ce qui sensuit, afin de voir si quelquun ma déjà montré la réponse. Dans ce qui suit, aucun calcul nest nécessaire, et seules les règles les plus simples (des exposants et des intégrales) sont nécessaires pour suivre lalgèbre.
Commençons par la distribution Gamma.Choisissez une unité de mesure de $ X $ dans laquelle $ \ beta = 1 $ , afin que nous puissions disons que $ X $ a une distribution $ \ Gamma (\ alpha) $ . Cela signifie que la densité nest positive que pour les valeurs positives, où lélément de densité de probabilité est donné par
$$ f_ \ alpha (x) dx = \ frac {1 } {\ Gamma (\ alpha)} x ^ {\ alpha} e ^ {- x} \ frac {dx} {x}. $$
(Si vous « êtes curieux, lexpression $ dx / x $ est expliquée à https://stats.stackexchange.com/a/185709 . Si cela ne vous plaît pas, remplacez $ x ^ \ alpha dx / x $ par $ x ^ { \ alpha-1} dx $ .)
Rappelons que la constante de normalisation est là pour faire lintégrale de $ f_ \ alpha (x) dx $ unité, doù nous pouvons déduire que
$$ \ begin {aligné} \ Gamma (\ alpha) & = \ Gamma (\ alpha) (1) = \ Gamma (\ alpha) \ int_0 ^ \ infty f_ \ alpha (x) dx = \ frac {\ Gamma (\ alpha)} {\ Gamma (\ alpha )} \ int_0 ^ \ infty x ^ {\ alpha} e ^ {- x} \ frac {dx} {x} \\ & = \ int_0 ^ \ infty x ^ { \ alpha} e ^ {-x} \ frac {dx} {x}. \ end {aligné} \ tag {1} $$
Peu importe le nombre $ \ Gamma (\ alpha) $ lest réellement. Il suffit de voir quil est bien défini et fini à condition $ \ alpha \ gt 0 $ et quil diverge autrement.
Passons maintenant aux règles de lattente. La » loi du statisticien inconscient » dit lattente de toute fonction de $ X $ , comme $ X ^ p $ pour une certaine puissance $ p $ (qui est généralement positive mais peut être négative et même complexe), est obtenue en intégrant cette fonction de $ x $ à la densité:
$$ E [X ^ p] = \ int_0 ^ \ infty x ^ p \ frac {1} {\ Gamma (\ alpha)} x ^ {\ alpha} e ^ {- x} \ frac { dx} {x}. $$
Il est temps de regarder. En ignorant lintégrale, lintégrale est une expression assez simple. Réécrivons-la en utilisant les règles de lalgèbre et, dans le processus, déplacez cette valeur constante de $ 1 / \ Gamma (\ alpha) $ hors de lintégrale:
$$ E [X ^ p] = \ frac {1} {\ Gamma ( \ alpha)} \ int_0 ^ \ infty x ^ {p + \ a lpha} e ^ {- x} \ frac {dx} {x}. \ tag {2} $$
Cela devrait sembler très familier: ça » s comme une autre fonction de densité de distribution Gamma, mais avec la puissance $ p + \ alpha $ au lieu de $ \ alpha $ . Léquation $ (1) $ nous dit immédiatement , sans autre réflexion ni calcul, que
$$ \ int_0 ^ \ infty x ^ {p + \ alpha} e ^ {- x} \ frac {dx} {x} = \ Gamma (p + \ alpha). $$
Le brancher sur le côté droit de $ (2) $ donne
$$ E [X ^ p] = \ frac {\ Gamma (p + \ alpha)} {\ Gamma (\ alpha)}. $$
Il semble que nous ferions mieux davoir (la partie réelle de) $ p + \ alpha \ gt 0 $ pour que cela converge, comme indiqué précédemment.
En guise de double vérification, nous pouvons utiliser notre formule pour calculer les premiers instants et les comparer à, disons, ce que Wikipédia dit . Pour la moyenne, nous obtenons
$$ E \ left (X ^ 1 \ right) = \ frac {\ Gamma (1+ \ alpha)} {\ Gamma (\ alpha)} = \ alpha $$
et pour le deuxième moment (brut),
$$ E \ left (X ^ 2 \ right) = \ frac {\ Gamma (2+ \ alpha)} {\ Gamma (\ alpha)} = \ alpha (\ alpha + 1). $$
Par conséquent, la variance est $$ E \ left (X ^ 2 \ right) – E (X) ^ 2 = \ alpha (\ alpha + 1) – \ alpha ^ 2 = \ alpha. $$
Ces résultats concordent parfaitement avec lautorité. Il ny a pas de problème de convergence car depuis $ \ alpha \ gt 0 $ , les deux $ \ alpha + 1 \ gt 0 $ et $ \ alpha + 2 \ gt 0 $ .
Vous pouvez maintenant brancher en toute sécurité $ p = -2 $ et tirez vos conclusions sur la question dorigine. Noubliez pas de vérifier les conditions dans lesquelles la réponse existe.Et noubliez pas de remplacer les unités de $ X $ par celles dorigine: cela multipliera votre réponse par $ \ beta ^ p $ (ou $ \ beta ^ {- p} $ , selon ce que vous pensez que $ \ beta $ est une échelle ou un taux ).
[self-study]
& lire son wiki . Dites-nous ensuite ce que vous avez compris jusquà présent, ce que vous ‘ avez essayé & où vous ‘ re coincé. Nous ‘ vous fournirons des conseils pour vous aider à décoller.$...$
– consultez notre aide à la modification