F-test och t-test utförs i regressionsmodeller.

I linjär modelloutput i R, vi får anpassade värden och förväntade värden för svarsvariabel. Antag att jag har höjd som förklarande variabel och kroppsvikt som svarsvariabel för 100 datapunkter.

Varje variabel (förklarande eller oberoende variabel, om vi har flera regressionsmodeller) är koefficienten i linjär modell associerad med ett t-värde (tillsammans med dess p-värde)? Hur beräknas detta t-värde?

Det finns också ett F-test i slutet; igen är jag nyfiken på att beräkna dess beräkning?

Även i ANOVA efter linjär modell har jag sett ett F-test.

Även om jag är ny statistiklärare och inte från statistisk bakgrund , Jag har gått igenom med massor av handledning om detta. Vänligen föreslå inte att gå med grundläggande handledning eftersom jag redan har gjort det. Jag är bara nyfiken på att känna till T- och F-testberäkningarna med hjälp av några grundläggande exempel.

Kommentarer

  • Vad ' sa ' förutsägbar ' variabel? Från din text låter det faktiskt som om du menar ' svarsvariabel '
  • ja! svarsvariabel eller oberoende variabel. Jag redigerar den. tack
  • Whoah. Svarsvariabel = beroende variabel = y-variabel. Oberoende variabel = förklarande variabel = prediktorvariabel = x-variabel. Vilket är det?
  • Tack Glen_b, jag är mycket nöjd med lärandet av typer av variabler i regressionsmodeller och svaret nedan av Maaten buis gjorde mig klar över konceptet.
  • @bioinformatician Här är listor med termer som kan hjälpa dig. Låt ' s börja med synonymer för " beroende variabel " = " förklarade variabel ", " förutsäga och ", " regressand ", " svar ", " endogent ", " utfall ", " kontrollerad variabel ". Nästa är några synonymer för " förklarande variabel " = " oberoende variabel ", " prediktor ", " regressor ", " stimulans ", " exogen ", " kovariat ", " kontrollvariabel ". Några av dessa termer är mer populära än andra inom olika discipliner.

Svar

Missförståndet är din första förutsättning ”F-test och $ t $ -test utförs mellan två populationer”, detta är felaktigt eller åtminstone ofullständigt. $ T $ -testet bredvid en koefficient testar nollhypotesen att den koefficienten är lika med 0. Om motsvarande variabel är binär, till exempel 0 = hane, 1 = hona, beskrivs det de två populationerna men med den extra komplikationen att du också justerar för de andra kovariaterna i din modell. Om variabeln är kontinuerlig, till exempel utbildningsår, kan du tänka på att jämföra någon med 0 års utbildning med någon med 1 års utbildning, och jämföra någon med 1 års utbildning med någon med 2 års utbildning, etc, med begränsningen att varje steg har samma effekt på det förväntade resultatet och igen med den komplikation som du justerar för de andra kovariaterna i din modell.

Ett F-test efter linjär regression testar nollhypotesen att alla koefficienter i din modell utom konstanten är lika med 0. Så grupperna som du jämför är ännu mer komplexa.

Kommentarer

  • Kära Maarten Buis! Trevlig förklaring. Min skriftliga Upvote till dig 🙂 ..min nuvarande rykte får mig inte att rösta 🙁 !!

Svar

Några noteringar i början, jag använder z ~ N (0,1), u ~ χ2 (p), v ~ χ2 (q) och z, u och v är ömsesidigt oberoende (viktigt villkor)

  1. t = z / sqrt (u / p). För var och en av koefficienterna βj, om du testar om h0: βj = 0. Då (βj-0) / 1 är i grunden z, och provavvikelser (n-2) S ^ 2 ~ χ2 (n-2), så har du också din nedre del. Så när t är stort, vilket betyder att det avviker från H0 (signifikant p-värde) och vi avvisar Ho .
  2. F = (u / p) / (v / q), där u kan ha icke-centrala parametrar λ. Hur får man två oberoende χ2 i allmän linjär regression?Uppskattad βhat (hela vektorn) och uppskattad provvarians s ^ 2 är alltid oberoende. Så F-test i linjär regression är i princip (SSR / k) / (SSE / (n-k-1)). (SSR: summan av regressionens kvadrater SSE: summan av felkvadraterna). Under H0: β = 0, kommer toppen att ha ett centralt chi-kvadrat (och därmed icke-centralt F), annars kommer det kommer att följa icke-central teststatistik. Så om du vill veta förhållandet mellan t och F, tänk på den enkla linjära regressionen. Y = Xb + a (b är en skalär), då är t-test för b och totalt F-test samma sak.
  3. För (enkelriktad) ANOVA finns det massor av statistiska saker angående icke-fullständig rankning X-matris och uppskattningsbara funktioner grejer, jag vill inte belasta dig med allt det. Men grundidén är att vi till exempel har 4 behandlingar i covid-19, och vi vill jämföra om det finns skillnad mellan de fyra grupperna. Sedan totalt F = \ sum {n = 1} ^ {4-1} (Fi) / (4-1) för totalt (4-1) linjärt oberoende ortogonala kontraster. Så om den totala F har en stor värde, vi skulle avvisa H0: ingen skillnad mellan fyra grupper.

Lol Jag förstod precis att du ställde den här frågan för så många år sedan och förmodligen inte förvirrad längre. Men om det finns någon chans att du ”är fortfarande intresserad, du kan kolla in” Linjär modell i statistik ”-boken för mer detaljerade förklaringar. Jag granskade boken för min kvalificering och råkar stöta på det här 🙂

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *