F-Test und t-Test werden in Regressionsmodellen durchgeführt.

In der Ausgabe des linearen Modells in R, wir erhalten angepasste Werte und erwartete Werte der Antwortvariablen. Angenommen, ich habe Größe als erklärende Variable und Körpergewicht als Antwortvariable für 100 Datenpunkte.

Jeder Variablenkoeffizient (erklärende oder unabhängige Variable, wenn wir ein Mehrfachregressionsmodell haben) im linearen Modell ist einem t-Wert (zusammen mit seinem p-Wert) zugeordnet. Wie wird dieser t-Wert berechnet?

Außerdem gibt es am Ende einen F-Test. wieder bin ich neugierig auf seine Berechnung?

Auch in ANOVA nach linearem Modell habe ich einen F-Test gesehen.

Obwohl ich ein neuer Statistiklerner bin und keinen statistischen Hintergrund habe Ich habe viele Tutorials dazu durchgearbeitet. Bitte schlagen Sie nicht vor, mir grundlegende Tutorials zu geben, da ich das bereits getan habe. Ich bin nur neugierig auf die Berechnung des T- und F-Tests anhand eines einfachen Beispiels.

Kommentare

  • Was ' sa ' Vorhersage ' Variable? Aus Ihrem Text geht hervor, dass Sie ' Antwortvariable '
  • ja meinen! Antwortvariable oder unabhängige Variable. Ich bearbeite es. danke
  • Whoah. Antwortvariable = abhängige Variable = y-Variable. Unabhängige Variable = erklärende Variable = Prädiktorvariable = x-Variable. Was ist das?
  • Vielen Dank, Glen_b, ich freue mich über das Lernen von Variablentypen in Regressionsmodellen und die Antwort von Maaten buis hat mir das Konzept klar gemacht.
  • @bioinformatician Here sind Listen von Begriffen, die Ihnen helfen können. Beginnen wir mit ' s mit Synonymen für " abhängige Variable " = " erklärte Variable ", " prognostiziert ", " Regressand ", " Antwort ", " endogen ", " Ergebnis ", " Regelgröße ". Als nächstes folgen einige Synonyme für die erklärende Variable " " = " unabhängige Variable ", " Prädiktor ", " Regressor ", " Stimulus ", " exogen ", " Kovariate ", " Steuervariable ". Einige dieser Begriffe sind in verschiedenen Disziplinen beliebter als andere.

Antwort

Das Missverständnis ist Ihre erste Voraussetzung „F-Test und $ t $ -Test werden zwischen zwei Populationen durchgeführt“, dies ist falsch oder zumindest unvollständig. Der $ t $ -Test neben einem Koeffizienten testet die Nullhypothese, dass dieser Koeffizient gleich 0 ist. Wenn die entsprechende Variable binär ist, zum Beispiel 0 = männlich, 1 = weiblich, dann beschreibt dies die beiden Populationen, jedoch mit der zusätzlichen Komplikation dass Sie auch die anderen Kovariaten in Ihrem Modell anpassen. Wenn diese Variable kontinuierlich ist, z. B. Jahre Ausbildung, können Sie sich vorstellen, jemanden mit 0 Jahren Ausbildung mit jemandem mit 1 Jahr Ausbildung zu vergleichen und jemanden mit 1 Jahr Ausbildung mit jemandem mit 2 Jahren Ausbildung usw. zu vergleichen die Einschränkung, dass jeder Schritt den gleichen Effekt auf das erwartete Ergebnis hat und erneut mit der Komplikation, die Sie für die anderen Kovariaten in Ihrem Modell anpassen.

Ein F-Test nach linearer Regression testet die Nullhypothese, dass alle Koeffizienten in Ihrem Modell außer der Konstanten gleich 0 sind. Die Gruppen, die Sie vergleichen, sind also noch komplexer.

Kommentare

  • Lieber Maarten Buis! Schöne Erklärung. Meine schriftliche Upvote an Sie 🙂 ..meine aktuelle Reputationsbewertung erlaubt mir nicht abzustimmen 🙁 !!

Antwort

Einige Notationen am Anfang, ich verwende z ~ N (0,1), u ~ χ2 (p), v ~ χ2 (q) und z, u und v sind voneinander unabhängig (wichtige Bedingung)

  1. t = z / sqrt (u / p). Wenn Sie für jeden der Koeffizienten βj testen, ob h0: βj = 0. Dann ist (βj-0) / 1 im Grunde z, und Stichprobenvarianzen (n-2) S ^ 2 ~ χ2 (n-2), dann haben Sie auch Ihren unteren Teil. Wenn also t groß ist, bedeutet dies, dass es vom H0 (signifikanter p-Wert) abweicht und wir Ho ablehnen .
  2. F = (u / p) / (v / q), wobei u nicht zentrale Parameter λ haben könnte. Wie erhält man zwei unabhängige χ2 in der allgemeinen linearen Regression?Geschätzte βhat (der gesamte Vektor) und geschätzte Stichprobenvarianz s ^ 2 sind immer unabhängig. Der F-Test in der linearen Regression ist also grundsätzlich (SSR / k) / (SSE / (n-k-1)). (SSR: Summe der Regressionsquadrate SSE: Summe der Fehlerquadrate). Unter H0: β = 0 hat top ein zentrales Chi-Quadrat (und daher nicht zentrales F), andernfalls folgt nicht zentralen Teststatistiken. Wenn Sie also die Beziehung zwischen t und F kennen möchten, denken Sie an die einfache lineare Regression. Y = Xb + a (b ist ein Skalar), dann sind der t-Test für b und der gesamte F-Test dasselbe.
  3. Für (Einweg-) ANOVA gibt es viele statistische Daten bezüglich der Ich möchte Sie nicht mit all dem belasten. Aber die Grundidee ist, dass wir zum Beispiel 4 Behandlungen in covid-19 haben und wir vergleichen wollen, ob es einen Unterschied zwischen gibt die 4 Gruppen. Dann ist insgesamt F = \ sum {n = 1} ^ {4-1} (Fi) / (4-1) für insgesamt (4-1) linear unabhängige orthogonale Kontraste. Wenn also das gesamte F ein großes hat Wert, wir würden H0 ablehnen: kein Unterschied zwischen 4 Gruppen.

Lol Ich habe gerade festgestellt, dass Sie diese Frage vor so vielen Jahren gestellt haben und wahrscheinlich nicht mehr verwirrt sind. Aber wenn es eine Chance für Sie gibt Wenn Sie immer noch interessiert sind, können Sie das Buch „Lineares Modell in der Statistik“ lesen, um genauere Erklärungen zu erhalten. Ich habe das Buch für mein Qualifikationsmerkmal überprüft und bin zufällig darauf gestoßen 🙂

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.