Az F és a t tesztet regressziós modellekben végzik.
Lineáris modell kimenetében R, megkapjuk a válaszváltozó illesztett értékeit és várható értékeit. Tegyük fel, hogy a magasságom magyarázó változó, a testtömeg pedig a válaszváltozó 100 adatpontra.
A lineáris modellben minden változó (magyarázó vagy független változó, ha több regressziós modellünk van) együtthatót társítunk egy t értékkel (annak p értékével együtt)? Hogyan számítják ki ezt a t-értéket?
Szintén van egy F teszt a végén; ismét kíváncsi vagyok a számításaira?
Az ANOVA-ban is lineáris modell után láttam egy F-tesztet.
Bár új statisztikai tanuló vagyok, és nem statisztikai háttérből , Rengeteg oktatóanyaggal mentem keresztül erről. Kérjük, ne javasolja, hogy alap oktatóanyagokkal vegyen részt, mivel ezt már megtettem. Csak kíváncsi vagyok a T és F teszt kiszámítására néhány alapvető példával.
Megjegyzések
- Mi ' sa ' előrejelző ' változó? Szövegéből valójában úgy hangzik, mintha ' válaszváltozóra gondolna: '
- igen! válaszváltozó vagy független változó. Szerkesztem. köszönöm
- Whoah. Válaszváltozó = függő változó = y-változó. Független változó = magyarázó változó = előrejelző változó = x-változó. Mi ez?
- Köszönöm Glen_b, örülök a változók típusainak megtanulásának regressziós modellekben, és az alábbiakban Maaten buis által adott válasz világossá tette a koncepciót.
- @bioinformatician Here olyan kifejezések listája, amelyek segíthetnek Önnek. A ' szinonimákkal kezdjék a " függő változót " = " magyarázta a ", " előrejelző és ", " regresszió és ", " válasz ", " endogén ", " kimenetel ", " vezérelt változó ". Ezután a " magyarázó változó " = " független változó ", " prediktor ", " regresszor ", " inger ", " exogén ", " kovariált ", " vezérlő változó ". Ezen kifejezések némelyike népszerűbb, mint mások a különböző tudományterületeken.
Válasz
A félreértés az első előfeltétele “Az F tesztet és az $ t $ -tesztet két populáció között hajtják végre”, ez helytelen vagy legalábbis hiányos. Az együttható melletti $ t $ -teszt teszteli a nullhipotézist, miszerint ez az együttható 0. Ha a megfelelő változó bináris, például 0 = férfi, 1 = nő, akkor ez a két populációt írja le, de hozzáadott komplikációval hogy a modell többi kovariánsához is igazodik. Ha ez a változó folyamatos, például az oktatás évei, akkor gondolkodhat úgy, hogy összehasonlítasz valakit 0 éves végzettséggel 1 éves végzettséggel, és összehasonlítasz valakit 1 éves végzettséggel 2 év végzettséggel stb. az a megkötés, hogy minden lépésnek ugyanaz a hatása van a várt eredményre, és ismét azzal a bonyodalommal, amelyet a modell többi kovariánsához igazít.
A lineáris regresszió utáni F-teszt azt a nullhipotézist teszteli, hogy a modelljében az összes együttható 0 kivételével egyenlő. Tehát az összehasonlítani kívánt csoportok még összetettebbek.
Megjegyzések
- Kedves Maarten Buis! Szép magyarázat. Írásbeli szavazatom önnek 🙂 .. jelenlegi hírnevem nem engedi, hogy szavazzak 🙁 !!
Válasz
Néhány jelölés a kezdetektől fogva: z ~ N (0,1), u ~ χ2 (p), v ~ χ2 (q) és z, u és v egymástól független (fontos feltétel)
- t = z / sqrt (u / p). A βj együttható mindegyikéhez, ha azt teszteli, hogy h0: βj = 0. Akkor (βj-0) / 1 alapvetően z, és a minta varianciák (n-2) S ^ 2 ~ χ2 (n-2), akkor megvan az alsó része is. Tehát, ha t nagy, ami azt jelenti, hogy eltér a H0-tól (szignifikáns p-érték), és elutasítjuk Ho-t .
- F = (u / p) / (v / q), ahol u-nak nem központi paraméterei lehetnek λ. Hogyan lehet két független χ2-t kapni az általános lineáris regresszióban?Becsült βhat (a teljes vektor) és a becsült minta szórás s ^ 2 mindig függetlenek. Tehát az F-teszt lineáris regresszióban alapvetően (SSR / k) / (SSE / (n-k-1)). (SSR: a regresszió négyzetének összege SSE: a hiba négyzetének összege). H0 alatt: β = 0, a tetején középső khi-négyzet lesz (és ezért nem központi F), különben ez nem központi tesztstatisztikákat fog követni. Tehát, ha tudni akarja a t és F kapcsolatát, akkor gondoljon az egyszerű lineáris regresszióra. Y = Xb + a (b skalár), akkor a t-próba a b-hez és az össz F-teszt ugyanaz.
- Az (egyirányú) ANOVA esetében rengeteg statisztikai dolog van a nem teljes rangú X mátrix és becsülhető függvények, nem akarlak mindezekkel terhelni. De az alapötlet az, hogy például 4 kezelésünk van a covid-19-ben, és szeretnénk összehasonlítani, hogy van-e különbség a 4 csoport. Ezután összességében F = \ sum {n = 1} ^ {4-1} (Fi) / (4-1) a teljes (4-1) lineárisan független ortogonális kontraszthoz. Tehát, ha az össz F nagy értéket, elutasítanánk a H0-t: nincs különbség 4 csoport között.
Lol, rájöttem, hogy annyi évvel ezelőtt feltetted ezt a kérdést, és valószínűleg már nem zavart. De ha van rá esély “még mindig érdekel, megnézheted a” Lineáris modell a statisztikákban “könyvet, hogy elmagyarázzam szigorúbban. A selejtezőm számára áttekintettem a könyvet, és véletlenül belebotlottam ebbe a dologba 🙂