F-test og t-test utføres i regresjonsmodeller.

I lineær modellutgang i R, vi får tilpassede verdier og forventede verdier av responsvariabelen. Anta at jeg har høyde som forklaringsvariabel og kroppsvekt som responsvariabel for 100 datapunkter.

Hver variabel (forklarende eller uavhengig variabel, hvis vi har flere regresjonsmodeller), er koeffisient i lineær modell assosiert med en t-verdi (sammen med p-verdien)? Hvordan beregnes denne t-verdien?

Det er også en F-test på slutten; igjen er jeg nysgjerrig på å vite om beregningen?

Også i ANOVA etter lineær modell har jeg sett en F-test.

Selv om jeg er ny statistikklærer og ikke fra statistisk bakgrunn , Jeg har gått gjennom med mange veiledninger om dette. Vennligst ikke foreslå å gå med grunnleggende opplæringsprogrammer, siden jeg allerede har gjort det. Jeg er bare nysgjerrig på å vite om T- og F-testberegningen ved hjelp av noen grunnleggende eksempler.

Kommentarer

  • Hva ' sa ' prediktiv ' variabel? Fra teksten din høres det faktisk ut som du mener ' responsvariabel '
  • ja! responsvariabel eller uavhengig variabel. Jeg redigerer den. takk
  • Whoah. Svarvariabel = avhengig variabel = y-variabel. Uavhengig variabel = forklaringsvariabel = prediktorvariabel = x-variabel. Hva er det?
  • Takk Glen_b, jeg er veldig fornøyd med læringen av typer variabler i regresjonsmodeller, og svaret gitt nedenfor av Maaten buis gjorde meg klar for konseptet.
  • @bioinformatician Here er lister over vilkår som kan hjelpe deg. La ' s begynne med synonymer for " avhengig variabel " = " forklart variabel ", " forutsi og ", " regressand ", " respons ", " endogen ", " utfall ", " kontrollert variabel ". Neste er noen synonymer for " forklaringsvariabel " = " uavhengig variabel ", " prediktor ", " regressor ", " stimulans ", " eksogen ", " kovariat ", " kontrollvariabel ". Noen av disse begrepene er mer populære enn andre på tvers av forskjellige fagområder.

Svar

Misforståelsen er ditt første premiss «F-test og $ t $ -test utføres mellom to populasjoner», dette er feil eller i det minste ufullstendig. $ T $ -testen som ligger ved siden av en koeffisient tester nullhypotesen om at den koeffisienten er lik 0. Hvis den tilsvarende variabelen er binær, for eksempel 0 = hann, 1 = kvinne, så beskriver det de to populasjonene, men med den ekstra komplikasjonen at du også justerer for de andre kovariatene i modellen din. Hvis den variabelen er kontinuerlig, for eksempel utdannelse, kan du tenke på å sammenligne noen med 0 års utdanning med noen med 1 års utdanning, og sammenligne noen med 1 års utdanning med noen med 2 års utdanning osv. Med begrensningen at hvert trinn har samme effekt på forventet utfall og igjen med komplikasjonen som du justerer for de andre kovariatene i modellen din.

En F-test etter lineær regresjon tester nullhypotesen om at alle koeffisienter i modellen din bortsett fra konstanten er lik 0. Så gruppene du sammenligner er enda mer komplekse.

Kommentarer

  • Kjære Maarten Buis! Fin forklaring. Min skriftlige Upvote til deg 🙂 .. min nåværende omdømmescore tillater meg ikke å stemme 🙁 !!

Svar

Noen notasjoner helt i begynnelsen, jeg bruker z ~ N (0,1), u ~ χ2 (p), v ~ χ2 (q) og z, u og v er gjensidig uavhengige (viktig tilstand)

  1. t = z / sqrt (u / p). For hver av koeffisientene βj, hvis du tester om h0: βj = 0. Da er (βj-0) / 1 i utgangspunktet z, og prøve avvik (n-2) S ^ 2 ~ χ2 (n-2), så har du også bunndelen din. Så når t er stor, noe som betyr at den avviker fra H0 (signifikant p-verdi) og vi avviser Ho .
  2. F = (u / p) / (v / q), der u kan ha ikke-sentrale parametere λ. Hvordan får du to uavhengige χ2 generelt lineær regresjon?Anslått βhat (hele vektoren) og estimert prøvevarians s ^ 2 er alltid uavhengige. Så F-test i lineær regresjon er i utgangspunktet (SSR / k) / (SSE / (n-k-1)). (SSR: sum av kvadrater av regresjon SSE: sum av kvadrater av feil). Under H0: β = 0, vil toppen ha sentralt chi-kvadrat (og derfor ikke-sentralt F), ellers vil det vil følge ikke-sentral teststatistikk. Så hvis du vil vite forholdet mellom t og F, så tenk på den enkle lineære regresjonen. Y = Xb + a (b er en skalar), så er t-test for b og total F-test den samme.
  3. For (enveis) ANOVA er det mange statistiske ting angående ikke-full rang X-matrise og estimerbare funksjoner, vil jeg ikke belaste deg med alt det. Men grunnideen er for eksempel at vi har 4 behandlinger i covid-19, og vi vil sammenligne om det er forskjell på de fire gruppene. Så samlet F = \ sum {n = 1} ^ {4-1} (Fi) / (4-1) for totalt (4-1) lineært uavhengige ortogonale kontraster. Så hvis den totale F har en stor verdi, vil vi avvise H0: ingen forskjell mellom fire grupper.

Lol Jeg skjønte nettopp at du stilte dette spørsmålet for så mange år siden og sannsynligvis ikke forvirret lenger. Men hvis det er noen sjanse for deg «er fortsatt interessert, kan du sjekke ut» Lineær modell i statistikk «-bok for mer grundige forklaringer. Jeg gjennomgikk boken for kvalifiseringen min og kom til å støte på dette 🙂

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *