Aș dori să învăț cum să calculez valoarea așteptată a unei variabile aleatoare continue. Se pare că valoarea așteptată este $$ E [X] = \ int _ {- \ infty} ^ {\ infty} xf (x) \ mathrm {d} x $$ unde $ f (x) $ este funcția densității probabilității de $ X $.
Să presupunem că funcția de densitate a probabilității de $ X $ este $$ f (x) = \ frac {1} {\ sqrt {2 \ pi}} e ^ {\ frac {- x ^ {2}} {2}} $$ care este densitatea distribuției normale standard.
Deci, aș conecta mai întâi PDF-ul și am obținut $$ E [X] = \ int_ { – \ infty} ^ {\ infty} x \ frac {1} {\ sqrt {2 \ pi}} e ^ {\ frac {-x ^ {2}} {2}} \ mathrm {d} x $$ care este o ecuație destul de dezordonată. Constanta $ \ displaystyle \ frac {1} {\ sqrt {2 \ pi}} $ poate fi mutată în afara integralei, dând $$ E [X] = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} xe ^ {\ frac {-x ^ {2}} {2}} \ mathrm {d} x. $$
Sunt blocat aici. Cum calculez integral? Fac asta corect până acum? Este cel mai simplu mod de a obține valoarea așteptată?
Comentarii
- titlul întrebării dvs. este înșelător. De fapt, încercați să calculați valoarea așteptată a unei variabile aleatoare normale standard. De asemenea, puteți calcula valoarea așteptată a unei funcții a unui RV. Aș prefera să introduc în titlu: ” Cum se calculează valoarea așteptată a unei distribuții normale standard. ” Sau ” Cum se calculează valoarea așteptată a unei variabile aleatoare continue. ”
- @Gu ð mundurEinarsson corectat.
- ” M-am blocat aici. Cum calculez integral? ” Găsiți derivata lui $ -e ^ {- \ frac {x ^ 2} {2}} $. (Nu, nu sunt plină de fațetă și vă sugerez o muncă inutilă; sunt extrem de serios; Do It Do It!). Apoi, uită-te foarte tare la derivatul pe care l-ai găsit.
Răspuns
Ești aproape acolo, urmărește ultimul pas:
$$ E [X] = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} xe ^ {\ displaystyle \ frac { -x ^ {2}} {2}} \ mathrm {d} x \\ = – \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ { -x ^ 2/2} d (- \ frac {x ^ 2} {2}) \\ = – \ frac {1} {\ sqrt {2 \ pi}} e ^ {- x ^ 2/2} \ mid _ {- \ infty} ^ {\ infty} \\ = 0 $$.
Sau puteți utiliza direct faptul că $ xe ^ {- x ^ 2/2} $ este o funcție ciudată și limitele integralei sunt simetria.
Comentarii
- Argumentul de simetrie funcționează numai dacă ambele jumătăți sunt ele însele convergente.
- Ați putea explica ce se întâmplă pe al doilea rând?
- Comentariul lui Glen ‘ este corect dacă nu este convergent, atunci schimbarea variabilelor nu va funcționa
- Al doilea rând este egal cu primul rând, deoarece $ d (- \ frac {x ^ 2} {2}) = – xdx $ rețineți și semnul negativ la început. Apoi vă puteți gândi la schimbarea variabilei pentru integrare, apoi o schimbați din nou, deoarece limitele nu s-au schimbat. Sau puteți utiliza integrarea pe piese. Și amintiți-vă $ \ int_ {a} ^ {b} e ^ y dy = e ^ y \ mid_ {a} ^ {b} $
- Pentru a utiliza simetria pentru a obține media, trebuie să știți că $ \ int_0 ^ \ infty xf (x) dx $ converge – se întâmplă în acest caz, dar mai general îl poți ‘ nu-l asumi. De exemplu, argumentul simetriei ar spune că media lui Cauchy standard este 0, dar nu are ‘ nu are una.
Răspuns
Deoarece doriți să învățați metode pentru calculul așteptărilor și doriți să cunoașteți câteva modalități simple, vă veți bucura de utilizarea funcția de generare a momentului (mgf)
$$ \ phi (t) = E [e ^ {tX}]. $$
Metoda funcționează mai ales atunci când funcția de distribuție sau densitatea acesteia sunt date ca exponențiale. În acest caz, nu trebuie să faceți nicio integrare după ce observați
$$ t ^ 2/2 – \ left (x – t \ right) ^ 2/2 = t ^ 2 / 2 + (-x ^ 2/2 + tx – t ^ 2/2) = -x ^ 2/2 + tx, $$
deoarece, scriind funcția de densitate normală standard la $ x $ ca $ C e ^ {- x ^ 2/2} $ (pentru o valoare constantă de $ C $ a cărei valoare nu va trebui să o cunoașteți), acest lucru vă permite să rescrieți mgf ca
$$ \ phi t) = C \ int_ \ mathbb {R} e ^ {tx} e ^ {- x ^ 2/2} dx = C \ int_ \ mathbb {R} e ^ {- x ^ 2/2 + tx} dx = e ^ {t ^ 2/2} C \ int_ \ mathbb {R} e ^ {- (xt) ^ 2/2} dx. $$
În partea dreaptă, urmând $ e ^ {t ^ 2/2} $ termen, veți recunoaște integralul probabilității totale a unei distribuții normale cu media $ t $ și varianța unității, care este, prin urmare, $ 1 $. phi (t) = e ^ {t ^ 2/2}. $$
Deoarece densitatea normală devine mică la valori mari atât de rapid, nu există probleme de convergență indiferent de valoarea de $ t $. $ \ phi $ este analitic recunoscut la $ 0 $, ceea ce înseamnă că este egal cu seria MacLaurin
$$ \ phi (t) = e ^ {t ^ 2/2} = 1 + (t ^ 2/2 ) + \ frac {1} {2} \ left (t ^ 2/2 \ right) ^ 2 + \ cdots + \ frac {1} {k!} \ left (t ^ 2/2 \ right) ^ k + \ cdots.$$
Cu toate acestea, din moment ce $ e ^ {tX} $ converge absolut pentru toate valorile de $ tX $, putem scrie și
$$ E [e ^ {tX}] = E \ left [1 + tX + \ frac {1} {2} (tX) ^ 2 + \ cdots + \ frac {1} {n!} (TX) ^ n + \ cdots \ right] \\ = 1 + E [X] t + \ frac {1} {2} E [X ^ 2] t ^ 2 + \ cdots + \ frac {1} {n!} E [X ^ n] t ^ n + \ cdots. $$
Două serii de puteri convergente pot fi egale numai dacă sunt egale termen cu termen, de unde (comparând termenii care implică $ t ^ {2k} = t ^ n $)
$$ \ frac {1} {(2k)!} E [X ^ {2k}] t ^ {2k} = \ frac {1} {k!} (t ^ 2/2) ^ k = \ frac {1 } {2 ^ kk!} T ^ {2k}, $$
implicând
$$ E [X ^ {2k}] = \ frac {(2k)!} { 2 ^ kk!}, \ K = 0, 1, 2, \ ldots $$
(și toate așteptările de puteri impare de $ X $ sunt zero). Pentru practic niciun efort, ați obținut așteptările tuturor puterilor integrale pozitive de $ X $ simultan.
Variațiile acestei tehnici pot funcționa la fel de frumos în unele cazuri, cum ar fi $ E [1 / (1-tX)] = E [1 + tX + (tX) ^ 2 + \ cdots + (tX) ^ n + \ cdots] $, cu condiția ca intervalul de $ X $ să fie limitat în mod adecvat. Mgf (și ruda sa apropiată funcția caracteristică $ E [e ^ {itX}] $) sunt atât de utile în general, încât le veți găsi în tabele cu proprietăți de distribuție, cum ar fi în intrarea Wikipedia din distribuția normală .