Hvis $ X \ sim \ text {Gamma} (\ alpha, \ beta) $ , hvordan skal jeg gå til at finde $ E \ left (\ frac 1 {X ^ 2} \ right) $ ?
Kommentarer
Svar
Forudsat at du “vedrører tilfældig variabel af gammadistribution med form $ \ alpha > 0 $ og rate $ \ beta > 0 $ parametre, det vil sige $ X \ sim Gamma (\ alpha, \ beta) $, kan du finde $ \ mathbb {E} [\ frac {1} {X ^ 2}] $ på følgende måde:
For enhver tilfældig variabel X af kontinuerlig fordeling (som Gamma), hvor $ f $ angiver dens sandsynlighedsdensitetsfunktion (i dit eksempel $ f (x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 1} e ^ {- \ beta x} $) og for enhver funktion $ g $ for denne variabel (i dit tilfælde $ g (x) = \ frac {1} {x ^ 2 } = x ^ {- 2} $), det holder: $$ \ mathbb {E} [g (x)] = \ int \ limits _ {- \ infty} ^ {+ \ infty} g (x) f (x ) dx $$
I dit eksempel forenkles det meget (vær opmærksom på $ -3 $): $$ g (x) f ( x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 3} e ^ {- \ beta x} $$ Brøken afhænger ikke af $ x $ , så det kan placeres uden for en integral.
For diskret distribution er det meget ens: $$ \ mathbb {E} [g (x)] = \ sum \ limits_ {x \ in \ mathcal {X}} g (x) f (x), ~~ \ text {hvor} ~ \ mathcal {X} ~ \ text {angiver understøttelse af X (sæt af værdier det kan tage)} $$
Jeg holder dig ikke længere i spænding. Husk først, at $ \ Gamma (\ alpha + 1) = \ alpha \ cdot \ Gamma (\ alpha) $.
Lad $ f _ {\ alpha} (x) = \ frac {\ beta ^ {\ alpha}} {\ Gamma (\ alpha)} x ^ {\ alpha – 1} e ^ {- \ beta x} $. Kombination af disse to resultater i en ligefrem observation: $$ x \ cdot f _ {\ alpha} (x) = \ frac {\ alpha} {\ beta} \ cdot f _ {\ alpha + 1} (x) $$ Efter hinanden: $ $ \ frac {f _ {\ alpha + 1} (x)} {x} = \ frac {\ beta} {\ alpha} \ cdot f _ {\ alpha} (x) $$ Ved at bruge dette to gange får du resultatet :
$$ \ frac {f _ {\ alpha} (x)} {x ^ 2} = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {f _ {\ alpha- 1} (x)} {x} = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} {\ alpha-2} \ cdot f _ {\ alpha-2} (x) $$ I sidste ende (som $ f _ {\ alpha-2} (x) $ er også PDF, som er lig med $ 1 $): $$ \ mathbb {E} (\ frac {1} {X ^ 2}) = \ int \ limits_ { – \ infty} ^ {+ \ infty} \ frac {f _ {\ alpha} (x)} {x ^ 2} dx = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} { \ alpha-2} \ cdot \ int \ limits _ {- \ infty} ^ {+ \ infty} f _ {\ alpha-2} (x) dx = \ frac {\ beta} {\ alpha-1} \ cdot \ frac {\ beta} {\ alpha-2} $$ Denne løsning ovenfor er til denne særlige sag, men som whuber påpegede , det mere generelle tilfælde for enhver reel og positiv $ p \ i \ mathbb {R}, ~ p > 0 $ det holder: $$ \ mathbb {E} (X ^ p) = \ beta ^ p \ cdot \ frac {\ Gamma (\ alpha + p)} {\ Gamma (\ alpha)} $$
Kommentarer
- @TJ Phu Fortæl os, hvad du virkelig har problemer, måske med at beregne denne integral? Lad os alligevel vide det. Forsøg dog at følge gung og sølvfisk kommentarer og forbedre det overordnede layout af spørgsmålet.
- @TJ Phu Måske min allerførste bemærkning om at lave rå integration var lidt vildledende. Lad mig vide, om du fuldt ud forstår min løsning (simpelthen ved at acceptere / sætte kryds ved mit eller skarpere svar).
Svar
Jeg vil gå rundt på den dovne måde: ved at starte med en definition og se hårdt på, hvad der følger for at se om nogen allerede har vist mig svaret. I det følgende er der slet ikke behov for beregninger, og kun de meget enkle regler (af eksponenter og integraler) kræves for at følge algebraen.
Lad os begynde med gammafordelingen.Vælg en måleenhed på $ X $ hvor $ \ beta = 1 $ , så vi kan sige med rimelighed $ X $ har en $ \ Gamma (\ alpha) $ distribution. Dette betyder, at tætheden kun er positiv for positive værdier, hvor sandsynlighedsdensitetselementet er angivet af
$$ f_ \ alpha (x) dx = \ frac {1 } {\ Gamma (\ alpha)} x ^ {\ alpha} e ^ {- x} \ frac {dx} {x}. $$
(Hvis du er nysgerrig, udtrykket $ dx / x $ forklares ved https://stats.stackexchange.com/a/185709 . Hvis du ikke kan lide det, skal du udskifte $ x ^ \ alpha dx / x $ med $ x ^ { \ alpha-1} dx $ .)
Husk at normaliseringskonstanten er der for at gøre integralet af $ f_ \ alpha (x) dx $ enhed, hvorfra vi kan udlede, at
$$ \ begin {align} \ Gamma (\ alpha) & = \ Gamma (\ alpha) (1) = \ Gamma (\ alpha) \ int_0 ^ \ infty f_ \ alpha (x) dx = \ frac {\ Gamma (\ alpha)} {\ Gamma (\ alpha )} \ int_0 ^ \ infty x ^ {\ alpha} e ^ {- x} \ frac {dx} {x} \\ & = \ int_0 ^ \ infty x ^ { \ alpha} e ^ {-x} \ frac {dx} {x}. \ end {align} \ tag {1} $$
Det betyder ikke noget hvilket antal $ \ Gamma (\ alpha) $ er faktisk. Det er tilstrækkeligt at se, at det er veldefineret og endeligt forudsat $ \ alpha \ gt 0 $ og på anden måde adskiller sig.
Lad os nu henvende os til reglerne for forventning. ” loven for den ubevidste statistiker ” siger forventningen om enhver funktion af $ X $ , såsom $ X ^ p $ for en vis effekt $ p $ (som normalt er positiv, men kan være negativ og endda kompleks), opnås ved at integrere den funktion af $ x $ mod densiteten:
$$ E [X ^ p] = \ int_0 ^ \ infty x ^ p \ frac {1} {\ Gamma (\ alpha)} x ^ {\ alpha} e ^ {- x} \ frac { dx} {x}. $$
Det er tid til at stirre. Ignorerer integralen, integranden er et enkelt nok udtryk. Lad os omskrive det ved hjælp af reglerne for algebra og flytte i processen den konstante værdi på $ 1 / \ Gamma (\ alpha) $ ud af integralet:
$$ E [X ^ p] = \ frac {1} {\ Gamma ( \ alpha)} \ int_0 ^ \ infty x ^ {p + \ a lpha} e ^ {- x} \ frac {dx} {x}. \ tag {2} $$
Det skal se meget bekendt ud: det ” s ligesom en anden Gamma-distributionstæthedsfunktion, men med kraften $ p + \ alpha $ i stedet for $ \ alpha $ . Ligning $ (1) $ fortæller os straks uden yderligere tænkning eller beregning, at
$$ \ int_0 ^ \ infty x ^ {p + \ alpha} e ^ {- x} \ frac {dx} {x} = \ Gamma (p + \ alpha). $$
Tilslutning til højre side af $ (2) $ giver
$$ E [X ^ p] = \ frac {\ Gamma (p + \ alpha)} {\ Gamma (\ alpha)}. $$
Det ser ud til, at vi bedre havde (den rigtige del af) $ p + \ alpha \ gt 0 $ for at dette kan konvergere, som tidligere nævnt.
Som en dobbeltkontrol bruger vi muligvis vores formel til at beregne de første par øjeblikke og sammenligne dem med f.eks. hvad Wikipedia siger . I mellemtiden får vi
$$ E \ left (X ^ 1 \ right) = \ frac {\ Gamma (1+ \ alpha)} {\ Gamma (\ alpha)} = \ alpha $$
og i det andet (rå) øjeblik
$$ E \ left (X ^ 2 \ right) = \ frac {\ Gamma (2+ \ alpha)} {\ Gamma (\ alpha)} = \ alpha (\ alpha + 1). $$
Derfor er variansen $$ E \ left (X ^ 2 \ right) – E (X) ^ 2 = \ alpha (\ alpha + 1) – \ alpha ^ 2 = \ alpha. $$
Disse resultater stemmer perfekt overens med autoriteten. Der er ingen konvergensproblemer, fordi da $ \ alpha \ gt 0 $ , er begge $ \ alpha + 1 \ gt 0 $ og $ \ alpha + 2 \ gt 0 $ .
Du kan nu sikkert tilslutte $ p = -2 $ og træk dine konklusioner om det originale spørgsmål. Husk at kontrollere de betingelser, hvorunder svaret findes.Og glem ikke at ændre enhederne til $ X $ tilbage til de originale: det vil gange dit svar med $ \ beta ^ p $ (eller $ \ beta ^ {- p} $ , afhængigt af hvad du synes $ \ beta $ er en skala eller en sats ).
[self-study]
tag & læs dens wiki . Så fortæl os, hvad du hidtil forstår, hvad du ‘ har prøvet & hvor du ‘ sidder fast. Vi ‘ ll give tip, der hjælper dig med at blive løs.$...$
– se vores redigeringshjælp