70 votos

¿Por qué es posible conseguir estadística de F significativo (p < 001) pero pruebas t no significativas regressor?

En una regresión lineal múltiple, ¿por qué es posible tener una estadística F altamente significativa (p < 001) pero tienen valores muy altos de p en las pruebas de t de regressor?

En mi modelo, hay 10 regressors. Uno tiene un valor de p de 0.1 y el resto están por encima de 0.9


Para tratar este problema, consulte la pregunta complementaria.

53voto

Eggs McLaren Puntos 945

Como menciona el robo, esto ocurre cuando ha altamente correlacionadas las variables. El ejemplo estándar que utilizo es la predicción de peso de talla. Puede predecir peso igual de bien con el tamaño del zapato derecho o izquierdo. Pero juntos no funciona hacia fuera.

Ejemplo de simulación breve

RSS = 3:10 #Right shoe size
LSS = rnorm(RSS, RSS, 0.1) #Left shoe size - similar to RSS
cor(LSS, RSS) #correlation ~ 0.99

weights = 120 + rnorm(RSS, 10*RSS, 10)

##Fit a joint model
m = lm(weights ~ LSS + RSS)

##F-value is very small, but neither LSS or RSS are significant
summary(m)

##Fitting RSS or LSS separately gives a significant result. 
summary(lm(weights ~ LSS))

38voto

Senseful Puntos 116

Esto sucede cuando los predictores están altamente correlacionados. Imagine una situación en la que sólo hay dos predictores con correlación muy alta. Individualmente, ambos también se correlacionan estrechamente con la variable de respuesta. En consecuencia, la prueba F tiene un bajo valor de p (es decir que los predictores juntos son altamente significativos en la explicación de la variación en la variable de respuesta). Pero el t-test para cada predictor tiene un alto valor-p porque después de lo que permite el efecto de las otras predictor no queda mucho para explicar.

10voto

icelava Puntos 548

Una palabra clave para la búsqueda sería "colinealidad" o "multicolinealidad". Esto puede ser detectado mediante diagnósticos como la Varianza de la Inflación de los Factores (VIFs) o los métodos como se describe en el libro de texto "de la Regresión de Diagnóstico: Identificación de los Influyentes de Datos y Fuentes de Colinealidad" por Belsley, Kuh y Portentosa. VIFs son mucho más fáciles de entender, pero que no pueden lidiar con la colinealidad que implican la intersección (es decir, indicadores que son casi constante por sí solos o en combinación lineal) - por el contrario, la BKW diagnósticos son mucho menos intuitiva pero puede lidiar con la colinealidad implique la intercepción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by: