Il test F e il test t vengono eseguiti nei modelli di regressione.

Nelloutput del modello lineare in R, otteniamo valori adattati e valori attesi della variabile di risposta. Supponiamo che io abbia laltezza come variabile esplicativa e il peso corporeo come variabile di risposta per 100 punti dati.

Ogni coefficiente di variabile (variabile esplicativa o indipendente, se abbiamo un modello di regressione multipla) nel modello lineare è associato a un valore t (insieme al suo valore p)? Come viene calcolato questo valore t?

Inoltre cè un test F alla fine; ancora una volta sono curioso di sapere del suo calcolo?

Anche in ANOVA dopo il modello lineare, ho visto un F-test.

Sebbene io sia un nuovo studente di statistiche e non dal background statistico , Ho seguito molti tutorial su questo. Si prega di non suggerire di seguirmi con tutorial di base poiché lho già fatto. Sono solo curioso di conoscere il calcolo dei test T e F utilizzando alcuni esempi di base.

Commenti

  • Cosa ' sa ' predittiva ' variabile? Dal tuo testo, in realtà suona come vuoi dire ' variabile di risposta '
  • sì! variabile di risposta o variabile indipendente. Lo sto modificando. grazie
  • Whoah. Variabile di risposta = variabile dipendente = variabile y. Variabile indipendente = variabile esplicativa = variabile predittore = variabile x. Qual è?
  • Grazie Glen_b, sono lieto dellapprendimento dei tipi di variabili nei modelli di regressione e la risposta fornita di seguito da Maaten buis mi ha chiarito il concetto.
  • @bioinformatician Here sono elenchi di termini che possono aiutarti. Comincia a ' i sinonimi di " variabile dipendente " = " variabile spiegata ", " predire e ", " regressand ", " response ", " endogeno ", " risultato ", " variabile controllata ". Seguono alcuni sinonimi di " variabile esplicativa " = " variabile indipendente ", " predittore ", " regressore ", " stimulus ", " esogeno ", " covariate ", " variabile di controllo ". Alcuni di questi termini sono più popolari di altri in diverse discipline.

Risposta

Lincomprensione è la tua prima premessa “F test e $ t $ -test vengono eseguiti tra due popolazioni”, questo non è corretto o almeno incompleto. Il $ t $ -test che si trova accanto a un coefficiente verifica lipotesi nulla che quel coefficiente sia uguale a 0. Se la variabile corrispondente è binaria, ad esempio 0 = maschio, 1 = femmina, allora questo descrive le due popolazioni ma con la complicazione aggiunta che aggiusti anche per le altre covariate nel tuo modello. Se quella variabile è continua, ad esempio anni di istruzione, puoi pensare di confrontare qualcuno con 0 anni di istruzione con qualcuno con 1 anno di istruzione e di confrontare qualcuno con 1 anno di istruzione con qualcuno con 2 anni di istruzione, ecc. il vincolo secondo cui ogni passaggio ha lo stesso effetto sul risultato atteso e di nuovo con la complicazione che si regola per le altre covariate nel modello.

Un test F dopo la regressione lineare verifica lipotesi nulla che tutti i coefficienti nel tuo modello eccetto la costante siano uguali a 0. Quindi i gruppi che stai confrontando sono ancora più complessi.

Commenti

  • Caro Maarten Buis! Bella spiegazione. Il mio voto positivo per te 🙂 ..il mio attuale punteggio di reputazione non mi permette di votare 🙁 !!

Risposta

Alcune notazioni allinizio, uso z ~ N (0,1), u ~ χ2 (p), v ~ χ2 (q) ez, ue v sono reciprocamente indipendenti (condizione importante)

  1. t = z / sqrt (u / p). Per ciascuno dei coefficienti βj, se verifichi se h0: βj = 0. Allora (βj-0) / 1 è fondamentalmente z, e varianze campione (n-2) S ^ 2 ~ χ2 (n-2), allora hai anche la tua parte inferiore. Quindi, quando t è grande, significa che devia da H0 (valore p significativo) e rifiutiamo Ho .
  2. F = (u / p) / (v / q), dove u potrebbe avere parametri non centrali λ. Come si ottengono due χ2 indipendenti nella regressione lineare generale? βhat (lintero vettore) e varianza campione stimata s ^ 2 sono sempre indipendenti. Quindi i test F nella regressione lineare sono fondamentalmente (SSR / k) / (SSE / (n-k-1)). (SSR: somma dei quadrati di regressione SSE: somma dei quadrati di errore). In H0: β = 0, in alto avrà il chi quadrato centrale (e quindi non centrale F), altrimenti seguirà le statistiche dei test non centrali. Quindi, se vuoi conoscere la relazione tra te F, pensa alla semplice regressione lineare. Y = Xb + a (b è uno scalare), quindi il test t per be il test F complessivo sono la stessa cosa.
  3. Per ANOVA (unidirezionale), ci sono molte cose statistiche riguardanti il matrice X non di rango completo e funzioni stimabili, non voglio caricarti di tutto questo. Ma lidea di base è, ad esempio, abbiamo 4 trattamenti in covid-19 e vogliamo confrontare se cè differenza tra i 4 gruppi. Allora F globale = \ sum {n = 1} ^ {4-1} (Fi) / (4-1) per contrasti ortogonali totali (4-1) linearmente indipendenti. Quindi se la F complessiva ha un valore, rifiuteremmo H0: nessuna differenza tra 4 gruppi.

Lol Mi sono appena reso conto che hai fatto questa domanda tanti anni fa e probabilmente non sei più confuso. Ma se cè qualche possibilità tu “Sei ancora interessato, puoi controllare il libro” Modello lineare nelle statistiche “per spiegazioni più rigorose. Stavo rivedendo il libro per il mio qualificatore e mi è capitato di imbattermi in questo 🙂

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *