La prueba F y la prueba t se realizan en modelos de regresión.

En la salida del modelo lineal en R, obtenemos valores ajustados y valores esperados de la variable de respuesta. Supongamos que tengo la altura como variable explicativa y el peso corporal como variable de respuesta para 100 puntos de datos.

¿Cada coeficiente de variable (explicativa o variable independiente, si tenemos un modelo de regresión múltiple) en el modelo lineal está asociado con un valor t (junto con su valor p)? ¿Cómo se calcula este valor t?

También hay una prueba F al final; de nuevo, ¿tengo curiosidad por saber sobre su cálculo?

También en ANOVA después del modelo lineal, he visto una prueba F.

Aunque soy un nuevo aprendiz de estadística y no tengo experiencia en estadística , He seguido con muchos tutoriales sobre esto. Por favor, no sugiera acompañarme con tutoriales básicos, ya que ya lo he hecho. Solo tengo curiosidad por saber sobre el cálculo de la prueba T y F usando un ejemplo básico.

Comentarios

  • Qué ' ¿una variable ' predictiva '? De su texto, en realidad parece que se refiere a ' variable de respuesta '
  • ¡sí! variable de respuesta o variable independiente. Lo estoy editando. gracias
  • Whoah. Variable de respuesta = variable dependiente = variable y. Variable independiente = variable explicativa = variable predictora = variable x. ¿Cuál es?
  • Gracias Glen_b, estoy encantado con el aprendizaje de los tipos de variables en los modelos de regresión y la respuesta dada a continuación por Maaten buis me dejó claro el concepto.
  • @bioinformático Aquí son listas de términos que pueden ayudarlo. Dejemos que ' s comiencen con sinónimos para " variable dependiente " = " explicó la variable ", " predicta y ", " regressand ", " respuesta ", " " endógeno, " resultado ", " variable controlada ". A continuación se muestran algunos sinónimos de " variable explicativa " = " variable independiente ", " predictor ", " regresor ", " estímulo ", " exógeno ", " covariable ", " variable de control ". Algunos de estos términos son más populares que otros en diferentes disciplinas.

Responder

El malentendido es su primera premisa «La prueba F y la prueba $ t $ se realizan entre dos poblaciones», esto es incorrecto o al menos incompleto. La prueba $ t $ que está junto a un coeficiente prueba la hipótesis nula de que ese coeficiente es igual a 0. Si la variable correspondiente es binaria, por ejemplo, 0 = hombre, 1 = mujer, entonces eso describe las dos poblaciones pero con la complicación adicional que también ajusta para las otras covariables en su modelo. Si esa variable es continua, por ejemplo años de educación, puede pensar en comparar a alguien con 0 años de educación con alguien con 1 año de educación, y comparar a alguien con 1 año de educación con alguien con 2 años de educación, etc. la restricción de que cada paso tiene el mismo efecto en el resultado esperado y nuevamente con la complicación que ajusta para las otras covariables en su modelo.

Una prueba F después de la regresión lineal prueba la hipótesis nula de que todos los coeficientes de su modelo, excepto la constante, son iguales a 0. Por lo tanto, los grupos que está comparando son aún más complejos.

Comentarios

  • ¡Estimado Maarten Buis! Buena explicación. Mi voto a favor por escrito para ti 🙂 … mi puntuación de reputación actual no me permite votar 🙁 !!

Responder

Algunas notaciones al principio, estoy usando z ~ N (0,1), u ~ χ2 (p), v ~ χ2 (q) y z, u y v son mutuamente independientes (condición importante)

  1. t = z / sqrt (u / p). Para cada uno de los coeficientes βj, si prueba si h0: βj = 0. Entonces (βj-0) / 1 es básicamente z, y varianzas muestrales (n-2) S ^ 2 ~ χ2 (n-2), entonces también tiene su parte inferior. Entonces, cuando t es grande, lo que significa que se desvía del H0 (valor p significativo) y rechazamos Ho .
  2. F = (u / p) / (v / q), donde u podría tener parámetros no centrales λ. ¿Cómo se obtienen dos χ2 independientes en la regresión lineal general? βhat estimada (el vector completo) y varianza estimada de la muestra s ^ 2 son siempre independientes. Entonces, las pruebas F en regresión lineal son básicamente (SSR / k) / (SSE / (n-k-1)). (SSR: suma de cuadrados de regresión SSE: suma de cuadrados de error). Bajo H0: β = 0, la parte superior tendrá chi-cuadrado central (y por lo tanto F no central); de lo contrario, seguirá las estadísticas de prueba no centrales. Entonces, si desea conocer la relación entre ty F, piense en la regresión lineal simple. Y = Xb + a (b es un escalar), entonces la prueba t para by la prueba F general son lo mismo.
  3. Para ANOVA (unidireccional), hay muchas cosas estadísticas con respecto a la matriz X no completa y cosas de funciones estimables, no quiero agobiarlo con todo eso. Pero la idea básica es, por ejemplo, tenemos 4 tratamientos en covid-19, y queremos comparar si hay diferencia entre los 4 grupos. Entonces, F = \ sum {n = 1} ^ {4-1} (Fi) / (4-1) totales para contrastes ortogonales linealmente independientes totales (4-1). Entonces, si la F general tiene un gran valor, rechazaríamos H0: no hay diferencia entre 4 grupos.

Lol, me acabo de dar cuenta de que hiciste esta pregunta hace tantos años y probablemente ya no te confundas. Pero si hay alguna posibilidad de que «Aún estás interesado, puedes consultar el libro» Modelo lineal en estadísticas «para obtener explicaciones más rigurosas. Estaba revisando el libro para mi calificador y me encontré con esto 🙂

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *