Jeśli $ X \ sim \ text {Gamma} (\ alpha, \ beta) $ , jak mam znaleźć $ E \ left (\ frac 1 {X ^ 2} \ right) $ ?
Komentarze
Odpowiedź
Zakładając, że „dotyczy zmiennej losowej rozkładu Gamma o kształcie $ \ alpha > 0 $ i ocenie $ \ beta > 0 $ parametrów, czyli $ X \ sim Gamma (\ alpha, \ beta) $, możesz znaleźć $ \ mathbb {E} [\ frac {1} {X ^ 2}] $ w następujący sposób:
Dla dowolnej zmiennej losowej X o rozkładzie ciągłym (np. Gamma), dla której $ f $ oznacza jej funkcję gęstości prawdopodobieństwa (w naszym przykładzie $ f (x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 1} e ^ {- \ beta x} $) i dla dowolnej funkcji $ g $ tej zmiennej (w twoim przypadku $ g (x) = \ frac {1} {x ^ 2 } = x ^ {- 2} $), zawiera: $$ \ mathbb {E} [g (x)] = \ int \ limits _ {- \ infty} ^ {+ \ infty} g (x) f (x ) dx $$
W twoim przykładzie bardzo upraszcza to (zwróć uwagę na -3 $): $$ g (x) f ( x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 3} e ^ {- \ beta x} $$ Ułamek „t nie zależy od $ x $ , więc można ją umieścić poza całką.
Nawiasem mówiąc, dla dystrybucji dyskretnej jest bardzo podobny: $$ \ mathbb {E} [g (x)] = \ sum \ limits_ {x \ in \ mathcal {X}} g (x) f (x), ~~ \ text {gdzie} ~ \ mathcal {X} ~ \ text {oznacza obsługę X (zestaw wartości, które może przyjmować)} $$
Nie będę już dłużej trzymał Cię w napięciu. Przede wszystkim pamiętaj, że $ \ Gamma (\ alpha + 1) = \ alpha \ cdot \ Gamma (\ alpha) $.
Niech $ f _ {\ alpha} (x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 1} e ^ {- \ beta x} $. Połączenie tych dwóch wyników daje prostą obserwację: $$ x \ cdot f _ {\ alpha} (x) = \ frac {\ alpha} {\ beta} \ cdot f _ {\ alpha + 1} (x) $$ Po kolei: $ $ \ frac {f _ {\ alpha + 1} (x)} {x} = \ frac {\ beta} {\ alpha} \ cdot f _ {\ alpha} (x) $$ Używając tego dwukrotnie, otrzymasz wynik :
$$ \ frac {f _ {\ alpha} (x)} {x ^ 2} = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {f _ {\ alpha- 1} (x)} {x} = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} {\ alpha-2} \ cdot f _ {\ alpha-2} (x) $$ Ostatecznie (ponieważ $ f _ {\ alpha-2} (x) $ to także PDF, którego całka równa się 1 $): $$ \ mathbb {E} (\ frac {1} {X ^ 2}) = \ int \ limits_ { – \ infty} ^ {+ \ infty} \ frac {f _ {\ alpha} (x)} {x ^ 2} dx = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} { \ alpha-2} \ cdot \ int \ limits _ {- \ infty} ^ {+ \ infty} f _ {\ alpha-2} (x) dx = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} {\ alpha-2} $$ Powyższe rozwiązanie dotyczy tego konkretnego przypadku, ale jak wskazał whuber , bardziej ogólny przypadek dla dowolnego rzeczywistego i dodatniego $ p \ in \ mathbb {R}, ~ p > 0 $ zawiera: $$ \ mathbb {E} (X ^ p) = \ beta ^ p \ cdot \ frac {\ Gamma (\ alpha + p)} {\ Gamma (\ alpha)} $$
Komentarze
- @TJ Phu Daj nam znać, z czym tak naprawdę masz problem, może z obliczeniem tej całki? W każdym razie, daj nam znać. Spróbuj jednak podążać za komentarzami gung i Silverfish i popraw ogólny układ pytania.
- @TJ Phu Może moja pierwsza uwaga na temat robienia surowego integracja była nieco myląca. Daj mi znać, czy w pełni rozumiesz moje rozwiązanie (po prostu akceptując / zaznaczając moją lub inną odpowiedź).
Odpowiedź
Zabrałbym się do tego leniwie: zaczynając od definicji i uważnie przyglądając się temu, co z tego wyniknie, zobacz, czy ktoś już pokazał mi odpowiedź. W dalszej części nie są potrzebne żadne obliczenia, a do przestrzegania algebry potrzebne są tylko najprostsze reguły (wykładników i całek).
Zacznijmy od rozkładu Gamma.Wybierz jednostkę miary $ X $ , w której $ \ beta = 1 $ , abyśmy mogli powiedzmy, że $ X $ ma dystrybucję $ \ Gamma (\ alpha) $ . Oznacza to, że gęstość jest dodatnia tylko dla wartości dodatnich, gdzie element gęstości prawdopodobieństwa jest określony przez
$$ f_ \ alpha (x) dx = \ frac {1 } {\ Gamma (\ alpha)} x ^ {\ alpha} e ^ {- x} \ frac {dx} {x}. $$
(Jeśli jesteś ciekawy, wyrażenie $ dx / x $ jest wyjaśnione w https://stats.stackexchange.com/a/185709 . Jeśli ci się to nie podoba, zamień $ x ^ \ alpha dx / x $ na $ x ^ { \ alpha-1} dx $ .)
Przypomnij sobie, że stała normalizująca służy do tworzenia całki z $ f_ \ alpha (x) dx $ jedność, skąd możemy to wywnioskować
$$ \ begin {aligned} \ Gamma (\ alpha) & = \ Gamma (\ alpha) (1) = \ Gamma (\ alpha) \ int_0 ^ \ infty f_ \ alpha (x) dx = \ frac {\ Gamma (\ alpha)} {\ Gamma (\ alpha )} \ int_0 ^ \ infty x ^ {\ alpha} e ^ {- x} \ frac {dx} {x} \\ & = \ int_0 ^ \ infty x ^ { \ alpha} e ^ {-x} \ frac {dx} {x}. \ end {aligned} \ tag {1} $$
Nie ma znaczenia jaka liczba $ \ Gamma (\ alpha) $ faktycznie jest. Wystarczy zobaczyć, że jest dobrze zdefiniowany i podany w ograniczonym zakresie $ \ alpha \ gt 0 $ i różni się w inny sposób.
Przejdźmy teraz do reguł oczekiwania. ” Prawo nieświadomego statystyka ” mówi o oczekiwaniu dowolnej funkcji $ X $ , na przykład $ X ^ p $ dla pewnej mocy $ p $ (zwykle dodatnia, ale może być ujemna, a nawet złożona), uzyskuje się przez całkowanie funkcji $ x $ z gęstością:
$$ E [X ^ p] = \ int_0 ^ \ infty x ^ p \ frac {1} {\ Gamma (\ alpha)} x ^ {\ alpha} e ^ {- x} \ frac { dx} {x}. $$
Czas się gapić. Ignorując całkę, całka jest dość prostym wyrażeniem. Przepiszmy ją, używając reguł algebry, i przy okazji przenieś tę stałą wartość $ 1 / \ Gamma (\ alpha) $ z całki:
$$ E [X ^ p] = \ frac {1} {\ Gamma ( \ alpha)} \ int_0 ^ \ infty x ^ {p + \ a lpha} e ^ {- x} \ frac {dx} {x}. \ tag {2} $$
To powinno wyglądać strasznie znajomo: to ” działa jak inna funkcja gęstości rozkładu Gamma, ale z mocą $ p + \ alpha $ zamiast $ \ alpha $ . Równanie $ (1) $ mówi nam natychmiast , bez dalszego myślenia i obliczeń, że
$$ \ int_0 ^ \ infty x ^ {p + \ alpha} e ^ {- x} \ frac {dx} {x} = \ Gamma (p + \ alpha). $$
Podłączenie tego do prawej strony $ (2) $ daje
$$ E [X ^ p] = \ frac {\ Gamma (p + \ alpha)} {\ Gamma (\ alpha)}. $$
Wygląda na to, że lepiej (rzeczywista część) $ p + \ alpha \ gt 0 $ , aby uzyskać zbieżność, jak wspomniano wcześniej.
W ramach podwójnego sprawdzenia możemy użyć naszej formuły, aby obliczyć kilka pierwszych chwil i porównać je, powiedzmy, z czym Wikipedia mówi . Jako średnią otrzymujemy
$$ E \ left (X ^ 1 \ right) = \ frac {\ Gamma (1+ \ alpha)} {\ Gamma (\ alpha)} = \ alpha $$
i przez drugi (nieprzetworzony) moment,
$$ E \ left (X ^ 2 \ right) = \ frac {\ Gamma (2+ \ alpha)} {\ Gamma (\ alpha)} = \ alpha (\ alpha + 1). $$
W konsekwencji wariancja wynosi $$ E \ left (X ^ 2 \ right) – E (X) ^ 2 = \ alpha (\ alpha + 1) – \ alpha ^ 2 = \ alpha. $$
Te wyniki są całkowicie zgodne z władzami. Nie ma problemów ze zbieżnością, ponieważ od $ \ alpha \ gt 0 $ , oba $ \ alpha + 1 \ gt 0 $ i $ \ alpha + 2 \ gt 0 $ .
Możesz teraz bezpiecznie podłączyć $ p = -2 $ i wyciągnij wnioski dotyczące pierwotnego pytania. Pamiętaj, aby sprawdzić warunki, w jakich istnieje odpowiedź.I nie zapomnij zmienić jednostek $ X $ z powrotem na oryginalne: to pomnoży twoją odpowiedź przez $ \ beta ^ p $ (lub $ \ beta ^ {- p} $ , w zależności od tego, co myślisz $ \ beta $ to skala lub stawka ).
[self-study]
& przeczytaj jego wiki . Następnie powiedz nam, co do tej pory rozumiesz, co ' próbowałeś &, gdzie ' utknąłem. ' podamy wskazówki, które pomogą Ci się odblokować.$...$
– zobacz naszą pomoc dotyczącą edycji