Multicolinealidad

Estadística. Regresiones lineales. Muestras. Test de Farrar-Glauber. Correlación. Variables regresoras

  • Enviado por: Mlaura
  • Idioma: castellano
  • País: Argentina Argentina
  • 3 páginas
publicidad
publicidad

MULTICOLINEALIDAD

“ Se da cuando algunas de las variables regresoras ( explicativas) están correlacionadas , incumpliendo una de las hipótesis de partida”

Se supone que es un problema de MUESTRA.

Si el modelo se utiliza para la predicción no será un problema importante si asumimos que la correlación entre las variables se mantiene en el futuro.

Tipos de Multicolinealidad

  • Perfecta: rango de la matriz X < K .
    La matriz no tiene rango completo; por lo tanto no podemos estimar el modelo por MCO. Sí podemos obtener estimadores MCO de los parámetros que son una combinación lineal de los parámetros originales.

    Consecuencias: los parámetros estimados son INDETERMINADOS debido a que no es posible separar las influencias de las distintas variables explicativas debido a que están relacionadas linealmente.

  • Ortogonalidad (no existencia de multicolinealidad): rango de la matriz X = K
    En la realidad casi no ocurre. Implica que la estimación del vector de parámetros poblacionales es la misma tanto si estimamos el modelo de regresión múltiple como el modelo de regresión simple.

  • Imperfecta: Es el caso en el que a la relación lineal entre las variables explicativas se le suma un término denominado error estocástico.

    Consecuencias: podemos estimar los parámetros por MCO pero los valores estimados no son muy confiables. Cuanto mas grande es la correlación, más próximo a cero será el determinante de la matriz X´X lo cuál incrementará las varianzas y covarianzas de los parámetros estimados.

Consecuencias de la Multicolinealidad

  • Los estimadores MCO son Insesgados y Consistentes pero tienen varianzas grandes.

  • Los intervalos de confianza son mas amplios.

  • El modelo suele ser significativo (R2 elevado) pero las variables individualmente no lo son (debido a que al ser grande la varianza el estadístico t" de contraste es menor llevándonos a concluir que una variable es irrelevante cuando en realidad no lo es)

  • Dificultad en la interpretación de los parámetros.

T=  / S F= R2/k-1

(1-R2)/n-k

Técnicas de detección

  • Analizar los coeficientes de correlación simple entre los regresores de 2 en 2. Si observamos una alta correlación nos estaría indicando la presencia de multicolinealidad.

  • Analizar el determinante de la matriz de correlaciones". Si el valor del determinante es 0 hay MULTICOLINEALIDAD PERFECTA. Si es 1 NO EXISTE MULTICOLINEALIDAD.

  • Estudiar los coeficientes de determinación de las regresiones en las cuales figura como variable endógena cada una de las variables explicativas del modelo. Un r2 elevado implica MULTICOLINEALIDAD.

  • También se puede detectar estudiando los parámetros estimados. Si éstos se ven muy alterados al efectuar pequeños cambios en las X, es un indicio de MULTICOLINEALIDAD.

  • Si las estimaciones obtenidas contradicen la teoría económica puede deberse a la presencia de MULTICOLINEALIDAD.

  • Analizando los R2 de sucesivos MCO en que se elimina un regresor, si el R2 no cambia puede ser debido a que la variable explicativa eliminada queda explicada por otras variables en cuyo caso es posible que exista MULTICOLINEALIDAD.

  • Test de FARRAR-GLAUBER

  • Test de Farrar-Glauber

    I ETAPA: Se busca evaluar la Ortogonalidad de las variables independientes.

    Ho: Las x son Ortogonales

    H1: Las x no son Ortogonales

    2

    Calc = - [ n - 1 - 2k + 5 ] De

    6


    n: tamaño de la muestra

    k: coeficientes + intercepto

    De: Valor absoluto del determinante de Rx

    2 (Tabla) con [k(k-1)]/2 grados de libertad

    Si 2 calc > 2 tabla , entonces rechazo Ho y estoy en presencia de Multicolinealidad.

    II ETAPA: Si detectamos que las variables son NO ortogonales entonces se regresiona cada variable explicativa contra el resto de variables independientes para ver cuál está mas correlacionada conjuntamente.

    Buscamos el coeficiente de determinación F de cada regresión y seleccionamos la que arroje el mayor F.

    X2 = F(X3;X4 ...) , R2 (X2 = X3;X4…)

    X3 = F(X2;X4…) , R2 (X3 = X2;X4…)

    Ho: R2(X2 …) = 0 &

    H1: R2(X2…) # 0

    Fcalc = R2Xi / k-1

    1-R2Xi/n-k

    Si Fcalc>Ftabla , entonces rechazo H0 y por lo tanto la variable X2 está colineada con las demás variables explicativas y me demuestra la presencia de Multicolinealidad.

    III ETAPA: Se hallan los coeficientes de correlación parcial para conocer con cual variable explicativa está mas correlacionada la variable seleccionada en la etapa anterior.

    Ho: rX2Xj (para todas las variables explicativas) = 0

    H1: rX2Xj #0

    tcalc = rX2Xj (raiz cuad) n - k

    (raiz cuad) 1 - rX2Xj

    t tabla con n - k grados de libertad.

    Si tcalc > t tabla entonces rechazo Ho y no existe Multicolinealidad

    Soluciones a la MULTICOLINEALIDAD

  • Cambiar El modelo

  • Ampliar la información

  • Otros métodos de regresión (Regresión cresta*)

  • Aceptar la Multicolinealidad y vigilar las consecuencias

  • * Regresión Cresta

    Se supone que el valor reducido del determinante de X´X causa problemas a la hora de aplicar MCO. Por este motivo se suma una cantidad determinada arbitrariamente ( c ) a los elementos de la diagonal principal.

    cresta & = [ X´X + cIk ] -1 XÝ

    " En cambio el estadístico de significación global F no es afectado.

    " A diferencia del punto 1) en este caso se tienen en cuenta la correlación entre cualquier n° de variables.

    & Para cada variable explicativa.

    & Presenta un sesgo que aumenta con el valor de c.