class: inverse, center, middle ## Tema 7 <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> ### Incumplimiento de las hipótesis básicas ###### (actualizadas el 07-07-2023) --- class: middle ### Tema 7. Incumplimiento de las hipótesis básicas 7.1 Introducción <br> 7.2 Multicolinealidad <br> 7.3 Contraste de normalidad <br> 7.4 Heterocedasticidad <br> 7.5 Autocorrelación <br> <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> **Bibliografía** - Ezequiel Uriel (2013): Capítulo 6 (epígrafes 6.1 a 6.6) - Wooldridge (2015): Capítulo 3 (epígrafe 3.4), Capítulo 9 (epígrafe 9.1), Capítulo 8 (epígrafes 8.1 y 8.3) y Capítulo 2 (epígrafe 12.2) - Stock y Watson (2012): Capítulo 6 (epígrafe 6.7) y Capítulo 9 (epígrafe 9.2) --- class: inverse, center, middle ### 7.1 Introducción <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### Las h.e.b son necesarias para que los estimadores sean ELIO, también para hacer contrastes y predicciones --- ##### recordamos las propiedades probabilísticas - En el tema 3 vimos que en el MLB; es decir, **si se cumplen las h.e.b**: - los estimadores MCO son **ELIO** - `\(\hat{\beta_{j}} \longrightarrow N( \beta_{j} \; , \; \sigma_{\hat{\beta_{j}}}^{2})\)`. A partir de este resultado se obtiene el `\(t\)`-ratio y el estadístico `\(F\)`, con los que hemos hecho **inferencia** y estimación por intervalos - Por contra, evidentemente, **si las h.e.b no se cumpliesen**, entonces alguno de estos resultados podría no cumplirse ##### En este tema revisitaremos algunas de las h.e.b con el propósito de - Analizar qué **causas** generan su no cumplimiento - Qué **consecuencias** se derivan de su no cumplimiento - Cómo **detectar** si se verifican o no - Si se detecta un incumplimiento, conocer los **tratamientos** correctores --- ##### Recordando las h.e.b 1) Correcta especificación: `\(y_{i} = \beta_{1} + \beta_{2} x_{i} + u_{i}\)` 2) Las `\(u_{i}\)` son v.a. no observables. 3) `\(E(u_{i}) = 0\)` 4) `\(Var(u_{i}) = \sigma^{2}\)` `\(i = 1, ..., N\)` **(HOMOCEDASTICIDAD: apartado 7.4)** 5) `\(Cov(u_{i} , u_{j} ) = 0\)` para `\(i \neq j\)` 6) `\(u_{i} \longrightarrow N\)` **(NORMALIDAD: apartado 7.3)** 7) Los regresores son no estocásticos, o sea, los regresores son fijos 8) La matriz de datos de los regresores debe cumplir que: - 8.1) N ≥ k (Hay que tener al menos tantas observaciones como parámetros `\(\beta\)` ) - 8.2) Los k regresores deben ser **linealmente independientes**; es decir, no pueden existir relaciones lineales exactas entre los regresores. **(NO COLINEALIDAD PERFECTA: apartado 7.2)** --- ##### Resumen de los resultados que obtendremos - Si se cumplen las h.e.b los estimadores MCO son ELIO - Para que sean ELIO no es necesaria la hipótesis de normalidad, pero si las perturbaciones se distribuyen normal, entonces los estimadores también y podemos hacer inferencia ##### Sin embargo, si alguna de las h.e.b no se cumpliese estos resultados pueden dejar de ser válidos - **[7.2 Colinealidad o multicolinealidad]**. Si hubiese una elevada colinealidad entre los regresores, los estimadores MCO seguirían siendo ELIO, pero su varianza sería elevada: es decir, **serían poco precisos** - **[7.3 no normalidad]**. Si las perturbaciones no siguiesen una distribución Normal, entonces los estimadores continúan siendo ELIO, pero ya no se distribuirán de forma Normal y, por tanto, tendremos **problemas para hacer contrastes** con los estadísticos habituales ( `\(t\)`, `\(F\)` ) - **[7.4 heterocedasticidad]**. Si las perturbaciones no son homocedásticas, los estimadores MCO continúan siendo insesgados, pero **dejan de ser óptimos** --- class: inverse, center, middle ### 7.2 Multicolinealidad <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### la colinealidad hace referencia a la existencia de relaciones lineales entre los regresores de forma que su precisión se ve afectada --- ##### ¿Qué es la colinealidad o multicolinealidad? - Hay colinealidad cuando los regresores ( `\(x\)` ) están **correlacionados** - Uno de los objetivos del MRL es explicar el comportamiento `\(y\)` en función de una serie variables explicativas. Para ello se han de **separar los efectos** de cada uno de los regresores sobre `\(y\)`. - Si las variables explicativas tienden a moverse conjuntamente (es decir están correlacionadas), el modelo presentará cierto grado de colinealidad y la separación de los efectos individuales de cada `\(x\)` sobre `\(y\)` se verá dificultada. (Ejemplo: la experiencia laboral y la edad como variables explicativas de los salarios) <br> ##### colinealidad perfecta y colinealidad (a secas) - Conviene **diferenciar** claramente entre colinealidad perfecta y colinealidad (a secas) --- ##### Colinealidad perfecta - Se trata de un **caso teórico**, ya que en la práctica no suele producirse este tipo de colinealidad - Para que se produzca tiene que haber un regresor que sea C.L. exacta de otros regresores del modelo. Esto supone un **incumplimiento de la hipótesis 8.2** - Por ejemplo: **trampa de las ficticias** o el gasto medido en euros y dolares - En este caso no es posible efectuar estimaciones de los parámetros, **los estimadores no están definidos** por lo que ni siquiera cabe plantearse las propiedades de los estimadores - Recuerda que la colinealidad perfecta es una curiosidad teórica. En la práctica **no suele darse** y si se diese, no podríamos estimar, lo que nos avisaría de su existencia --- ##### Colinealidad no perfecta (o sencillamente colinealidad) - En la práctica no suelen darse situaciones en las que se presente colinealidad perfecta; Sin embargo si es habitual que las variables explicativas presenten **cierto grado de colinealidad** - Cuanto más alta sea la correlación entre los regresores, más difícil será **separar sus efectos**, haciendo que aumenten las varianzas de los estimadores MCO, siendo por tanto mayor el riesgo de obtener **estimaciones imprecisas** - Si la elevada correlación entre los regresores hace que los resultados de estimación sean insatisfactorios, entonces decimos que el modelo sufre de colinealidad. - La colinealidad es un problema de grado: toda(!!) regresión sufre de este problema, por lo que sólo se dice que existe multicolinealidad cuando se cree que está afectando seriamente a los resultados de regresión. --- ##### La colinealidad es parte de un problema más general: la precisión de los estimadores En el tema 3 vimos que la varianza de los estimadores depende de: `$$\sigma_{\hat{\beta_{j}}}^{2} = \frac{\sigma^{2}}{N \; Var(x_{j}) \; (1-R^{2}_{j})}$$` ##### Cuanto menor sea la varianza, más precisos son los estimadores y, por tanto, más fiables son las estimaciones - Si aumenta el **tamaño muestral** ( `\(N\)` ) disminuye la varianza del estimador - Si aumenta la **variabilidad del regresor** ( `\(Var(x_{j})\)` ) disminuye la varianza del estimador - Si aumenta la **varianza de las perturbaciones** ( `\(\sigma^{2}\)` ) aumenta la varianza del estimador - El cuarto factor ( `\((1-R^{2}_{j})\)` ) está relacionado con la **colinealidad** (de los regresores) --- ##### ¿Cómo afecta la colinealidad a la varianza de los estimadores? - Si hay una elevada colinealidad entre los regresores, los estimadores MCO continúan siendo **ELIO**, pero su **varianza es elevada**; es decir, son **poco precisos**. `$$\sigma_{\hat{\beta_{j}}}^{2} = \frac{\sigma^{2}}{N \; Var(x_{j}) \; (1-R^{2}_{j})}$$` - Si hay una elevada colinealidad entre los regresores, estamos diciendo que `\(x_{j}\)` está muy relacionado con otro(s) regresores del modelo; y si eso ocurre ... es como si los otros regresores pudiesen explicar el comportamiento de `\(X_{j}\)` - El cuarto factor `\((1-R^{2}_{j})\)` representa la proporción de la variación total de `\(x_{j}\)` que no es explicada por el resto de regresores. Si la colinealidad es elevada, entonces `\(R^{2}_{j}\)` será elevado, y por tanto `\((1-R^{2}_{j})\)` reducido, lo que llevaría a un aumento de `\(\sigma_{\hat{\beta_{j}}}^{2}\)` - Repetimos, si la colinealidad aumenta, entonces ** `\(R^{2}_{j}\)` aumenta** y, por tanto, **la varianza de los estimadores aumenta** --- ##### Algunos detalles más sobre `\(R^{2}_{j}\)` `$$\sigma_{\hat{\beta_{j}}}^{2} = \frac{\sigma^{2}}{N \; Var(x_{j}) \; (1-R^{2}_{j})}$$` - Si `\(R^{2}_{j} = 1\)` estaríamos en el caso de colinealidad perfecta. No podemos obtener los estimadores MCO; es como si la varianza de estos fuese infinita - Si `\(R^{2}_{j}\)` es elevado, la varianza del estimador también. Esto es un problema para la precisión y fiabilidad del estimador - Sin embargo, no existe una valor de `\(R^{2}_{j}\)` que nos informe de que la colinealidad es un problema grave - El problema de la colinealidad ( `\(R^{2}_{j} \longrightarrow 1\)` ) es "similar" a tener una muestra pequeña o poca variabilidad de `\(x_{j}\)` o un fenómeno con mucho ruido ( `\(\sigma^{2}\)` ) - Es decir, la colinealidad **es uno de los factores** que nos pueden llevar a tener estimadores con insuficiente precisión - Una fuerte correlación entre 2 regresores, generalmente es irrelevante en la estimación de los efectos de los otros regresores --- ##### ¿Cómo podemos detectar si nuestro modelo tiene problemas de colinealidad? - Como la colinealidad es un problema esencialmente muestral, asociado a los datos que tenemos, no se cuenta con un método único para detectar cuando esta constituye un problema grave. Lo que tenemos son una reglas generales (algunas formales y otras informales). <br> Algunas de ellas son: - Elevadas correlaciones entre parejas de regresores - Pequeños cambios en la muestra generan grandes cambios en las estimaciones - Un `\(R^{2}\)` elevado (lo que significa que los regresores explican un elevado porcentaje de `\(y\)` ), pero pocos regresores significativos individualmente - **FAV** (Factor de agrandamiento de la varianza). Gretl lo llama FIV. --- ##### Si tenemos un problema de colinealidad, ¿podemos solucionarlo? Los datos en Economía, generalmente se recogen por recopilación pasiva; así que poco podremos hacer si resulta que tenemos 2 regresores muy colineales en la muestra. Algunas posibles "soluciones" - **Mejora del diseño muestral**: tratar de obtener una muestra con menos colinealidad. En el ejemplo de la determinación del salario, se puede seleccionar un subconjunto de individuos para los que la correlación entre la edad y la experiencia laboral no esté tan correlacionada. - **Eliminación de variables**: Si las dos variables están muy correlacionadas, es porque las dos aportan, esencialmente, la misma información. Pero ... - **Combinar variables**: si son similares conceptualmente, por ejemplo educación del padre y de la madre, o gastos en publicidad. - **Utilización de información extramuestral**: Por ejemplo, imponer restricciones sobre los parámetros basándose en información extramuestral - **Transformar las variables**: ratios, tasas de crecimiento, primeras diferencias, desviaciones respecto tendencia. La transformación ha de tener sentido --- ##### ¿Realmente podemos aliviar el problema de la colinealidad? - Ya hemos visto que solucionar o aliviar la colinealidad es complicado y no siempre es posible - Otra forma de intentar aliviar el problema de la colinealidad es intentar que los otros 3 factores que afectan a la precisión de los estimadores contribuyan a reducir la varianza `$$\sigma_{\hat{\beta_{j}}}^{2} = \frac{\sigma^{2}}{N \; Var(x_{j}) \; (1-R^{2}_{j})}$$` 1. **Recoger más datos** ( `\(\uparrow N\)` ). Evidentemente esto no siempre es posible 2. **Aumentar la variabilidad del regresor** que queremos estimar su efecto, `\(\uparrow Var(x_{j})\)` 3. **Reducir `\(\sigma^{2}\)`**. ¿Es esto posible? --- ##### Para finalizar con la colinealidad 3 reflexiones - Quizás, a veces, la colinealidad la puede provocar el propio investigador al pedirle demasiado a los datos - A los investigadores nos gustaría entender todos los fenómenos y estimar de forma precisa los efectos de todos los regresores, pero esto no siempre es posible - Finalmente, cabe preguntarse si la colinealidad es realmente un problema. Si el objetivo de la investigación es la estimación de los efectos parciales de los regresores, la respuesta es sí; pero si el objetivo fuese, por ejemplo, la predicción, entonces no necesariamente. --- ##### Una pregunta de examen <img src="data:image/png;base64,#../imagenes/tema_07_img_01.png" width="100%" style="display: block; margin: auto;" /> --- class: inverse, center, middle ### 7.3 Normalidad <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### La construcción de intervalos de confianza y la realización de contrastes de hipótesis se han desarrollado partiendo de que los estimadores siguen una distribución normal --- ##### ¿Qué ocurre si la perturbación no sigue una distribución Normal? - Los estimadores MCO continúan siendo ELIO, pero no se distribuirán de forma Normal; por lo tanto tendremos problemas para hacer contrastes con los estadísticos habituales - No sabremos la distribución teórica del `\(t\)`-ratio, ni del estadístico `\(F\)` <br> ##### ¿Cómo podemos contrastar si las `\(u\)` se distribuyen Normal? - Piensa que las perturbaciones **no son observables** - Para contrastar alguna propiedad de `\(u\)` utilizaremos los residuos ( `\(\hat{u}\)` ), que si son observables una vez se ha estimado el modelo --- ##### Contraste de Normalidad - Para chequear si `\(u\)` es Normal, **contrastaremos si `\(\hat{u}\)` siguen una Normal** - Para la hipótesis de normalidad existen multitud de contrates (Kolmogorov-Smirnov, Shapiro-Wilks, Jarque-Bera, ...) - Utilizaremos el **contraste de Jarque-Bera** (JB) - El contraste de Jarque-Bera se basa en que en cualquier distribución normal, el coeficiente de asimetría (**S**) es cero y el coeficiente de kurtosis (**K**) es 3. - La hipótesis nula del contraste de JB es `\(H_{0}: S = 0 \; \; y \; \; K = 3\)`; es decir la hipótesis nula es Normalidad. - La alternativa es no-normalidad: `\(H_{1}: S \neq 0 \; \; ó \; \; K \neq 3\)` - El estadístico de JB es: `\(\frac{N}{6} (S^{2} + \frac{(K-3)^{2}}{4})\)` - Se distribuye asintóticamente como una `\(\chi^{2}\)` con 2 grados de libertad ##### Si la muestra es suficientemente grande, el supuesto de normalidad de la perturbación no es necesario y se puede realizar **inferencia aproximada** --- ##### Contraste de Normalidad (ejemplo) <img src="data:image/png;base64,#../imagenes/tema_07_img_02.png" width="60%" style="display: block; margin: auto;" /> - El valor del estadístico de contraste es 676,58, que es mayor que 5,99 (el valor crítico de una `\(\chi_{2}^{2}\)` con dos grados de libertad al 5%). Por tanto rechazamos la hipótesis nula de normalidad de las perturbaciones - El valor de probabilidad del contraste es 0,0000, es menor que 0.05, por lo tanto, rechazamos la hipótesis nula al 5% - Como la muestra es de 1695 hogares, el incumplimiento de este supuesto no tiene consecuencias graves. Podemos hacer inferencia (aproximada) --- class: inverse, center, middle ### 7.4 Heterocedasticidad <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### Si tenemos heterocedasticidad, los estimadores MCO dejan de ser óptimos; es decir, ... --- ##### **Si las perturbaciones no son homocedásticas, Los estimadores MCO continúan siendo insesgados, pero ya no serán óptimos** ##### ¿Recordáis que significa homocedasticidad? Sí, claro!!!! <br> 4) `\(Var(u_{i}) = \sigma^{2}\)` `\(i = 1, ..., N\)` **(HOMOCEDASTICIDAD)** <br> - Si hay homocedasticidad, la variabilidad de las `\(u\)` es la misma para todos los individuos - En este caso hay que estimar `\(k+1\)` parámetros: `\(k\)` coeficientes `\(\beta\)` más la varianza de las perturbaciones, `\(\sigma^{2}\)` - Si tenemos heterocedasticidad: `\(Var(u_{i}) = \sigma^{2}_{i}\)`, la volatilidad será diferente para cada observación. - En este caso habría que estimar `\(k+N\)` parámetros. Obviamente esto es imposible dado que tenemos una muestra con `\(N\)` observaciones: tendríamos que suponer/imponer un esquema o patrón para la heterocedasticidad --- ##### Heterocedasticidad: causas - **Errores de especificación**: la especificación errónea de un modelo tanto por omisión de variables como por errores en la forma funcional puede generar problemas de heterocedasticidad - **Datos de corte transversal**: es muy frecuente que en datos de corte transversal haya heterocedasticidad. Menos frecuente, pero también puede ocurrir en datos de serie temporal. - Si el modelo incorpora variables como la **renta**, **riqueza**, tamaño ... es bastante probable que haya heterocedasticidad. Estas variables generalmente implican que las restricciones a las que hacen frente los agentes económico no son uniformes. - Podemos pensar que la causa última de que exista heterocedasticidad es "simplemente" que los **individuos son heterogeneos** y es imposible recoger en el modelo todos los aspectos o variables que afectan a su comportamiento y decisiones --- ##### Heterocedasticidad: ejemplos - En el ejemplo del examen, habría heterocedasticidad si los estudiantes llegasen al examen con diferentes niveles de nerviosismo o si el examen lo corrigiesen dos profesores con mecanismos de corrección no homogéneos. - En las decisiones de I+D+i, seguro que las empresas pequeñas tienen menos posibilidades de invertir, así que su nivel esperado de inversión será menor, pero seguramente también su volatilidad: las empresas grandes tienen más margen de acción pueden implementar un importante plan de inversión o no invertir. - Demanda de bienes de "lujo", cabe esperar que conforme aumente la renta del consumidor, aumente el consumo, pero seguramente también la volatilidad. - La heterocedasticidad es más probable que aparezca en datos de corte transversal: variables como la renta o el tamaño están muchas veces asociadas a heterocedasticidad. - La heterocedasticidad también puede aparecer en datos de serie temporal; por ejemplo suele ser muy frecuente en series financieras --- ##### Heterocedasticidad: un ejemplo visual <img src="data:image/png;base64,#../imagenes/tema_07_img_zz.png" width="95%" style="display: block; margin: auto;" /> --- ##### Heterocedasticidad: consecuencias - Los estimadores MCO ya no son lo mejores, no son óptimos: hay un método mejor **MCG** - La estimación de las varianzas de los estimadores obtenida aplicando la formula usual no es válida cuando existe heterocedasticidad - Por lo tanto, los estadísticos `\(t\)` y `\(F\)` basados en dicha estimación de la matriz de covarianzas darán lugar a inferencias erróneas. ##### Heterocedasticidad: ¿qué hacer? - La solución teórica está clara: estimar por **MCG** (Mínimo Cuadrados Generalizados) - Pero ... no siempre es factible - Si se decide seguir estimando por MCO, aún sabiendo que no es lo óptimo, al menos habrá que calcular las varianzas de los estimadores de forma correcta, habrá que corregir las varianzas para hacerlas robustas a la heterocedasticidad (varianzas HC) --- ##### Heterocedasticidad: detección - Como primera aproximación podemos visualizar los **residuos** MCO frente a `\(\hat{y}\)` o frente al regresor que creemos es causante del problema. <img src="data:image/png;base64,#../imagenes/tema_07_img_03.png" width="45%" height="30%" style="display: block; margin: auto;" /><img src="data:image/png;base64,#../imagenes/tema_07_img_04.png" width="45%" height="30%" style="display: block; margin: auto;" /> --- ##### Heterocedasticidad: test de White - La hipótesis nula es `\(H_{0}: \sigma^{2}_{i} = \sigma^{2}\)` es decir, homocedasticidad - La hipótesis alternativa es `\(H_{1}: \sigma^{2}_{i} = f(x's)\)` es decir, heterocedasticidad - El estadístico de White es `\(W = N * R_{aux}^{2}\)` - El estadístico de White se distribuye asintóticamente como una `\(\chi^{2}\)` con `\(m\)` grados de libertas. Siendo `\(m\)` el número de regresores de la regresión auxiliar (excluyendo el término independiente) --- ##### Supongamos que se ha estimado un modelo y se quiere contrastar si hay heterocedasticidad. Por ejemplo, este modelo: `\(y_{i} = \beta_{1} + \beta_{2} x_{2i} + \beta_{3} x_{3i} + u_{i}\)` Para implementar el test de White tenemos que: 1) Estimar el modelo por MCO y obtener los residuos 2) Se ha de efectuar una regresión auxiliar, en la que el regresando sean lo residuos MCO del modelo original al cuadrado, y los regresores sean: los regresores del modelo original, los cuadrados de estos y, opcionalmente, sus productos cruzados (eliminado redundancias). En nuestro ejemplo la regresión auxiliar sería: `$$\widehat{u}^{2} = \alpha + \gamma_{2} x_{2} + \gamma_{3} x_{3} + \gamma_{4} x_{2}^{2} + \gamma_{5} x_{3}^{2} + \gamma_{6} x_{2}x_{3} + \vartheta _{i}$$` 3) Se obtiene el coeficiente de determinación de la ecuación auxiliar `\(R_{aux}^{2}\)` para después calcular el valor del estadístico de White `\(W = N * R_{aux}^{2}\)` 4) Se efectúa el contraste --- ##### Contraste de White: ejemplo <img src="data:image/png;base64,#../imagenes/tema_07_img_05.png" width="100%" style="display: block; margin: auto;" /> 4) Los grados de libertad `\(m\)` son 5; por lo tanto hay que comparar el valor del estadístico con las tablas de una `\(\chi^{2}_{5}\)`. El valor de tablas, para `\(\alpha = 0.05\)` es 11.07; por lo tanto, se rechaza la hipótesis nula de homocedasticidad ##### Por lo tanto ... --- ##### Contraste de White en Gretl <img src="data:image/png;base64,#../imagenes/tema_07_img_06.png" width="82%" style="display: block; margin: auto;" /> --- ##### Y si tenemos heterocedasticidad ¿Qué hacemos? - Los estimadores MCO ya no son óptimos, hay un método mejor, **MCG**; así que la solución teórica está clara: estimar por **MCG**, pero ... no siempre es factible - Si tenemos heterocedasticidad pero continuamos estimando por MCO: - los coeficientes estimados son "válidos" (al menos los estimadores son insesgados), pero ... - la estimación de las desviaciones típicas no están correctamente calculados. La estimación de las varianzas de los estimadores obtenida aplicando la formula usual no es válida; por lo tanto, los estadísticos `\(t\)` y `\(F\)` basados en dicha estimación de la matriz de covarianzas darán lugar a inferencias erróneas. - Es decir, si se decide seguir estimando por MCO, aún sabiendo que no es lo óptimo, al menos habrá que calcular las varianzas de los estimadores de forma correcta, habrá que corregir las varianzas para hacerlas **robustas bajo heterocedasticidad** - Al corregir las desviaciones típicas la inferencia vuelve a ser válida --- ##### Varianzas robustas en Gretl <br> <img src="data:image/png;base64,#../imagenes/tema_07_img_07.png" width="100%" style="display: block; margin: auto;" /> --- class: inverse, center, middle ### 7.5 Autocorrelación <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### No lo vemos a ver en detalle, pero ... si tenemos una situación de autocorrelación ... --- ##### Autocorrelación en las perturbaciones - No confundir con la colinealidad (o "correlación" entre los regresores) - Hipótesis 5ª (NO autocorrelación): `\(Cov(u_{i} , u_{j} ) = 0\)` para `\(i \neq j\)` - Habrá autocorrelación en las perturbaciones si: `\(Cov(u_{i} , u_{j} ) \not= 0\)` - La **autocorrelación** es una situación/problema diferente al de la heterocedasticidad, pero sus **consecuencias y posibles soluciones** son, en cierta forma, **similares a los de la heterocedasticidad**. - Los **contrastes** estadísticos más habituales **para detectar autocorrelación** son: Durbin-Watson, Wallis, h-Durbin, Breusch-Godfrey, Box-Pierce-Ljung, ... --- ##### Autocorrelación: un ejemplo visual - Si tenemos una situación de autocorrelación en las perturbaciones: `\(Cov(u_{i} , u_{j} ) \not= 0\)` <img src="data:image/png;base64,#../imagenes/tema_07_img_zz_2.png" width="95%" style="display: block; margin: auto;" /> --- ##### Autocorrelación: causas - **Errores de especificación**: la especificación errónea de un modelo, tanto por omisión de variables como por errores en la forma funcional, puede generar problemas de autocorrelación - **Datos temporales**: los fenómenos económicos suelen tener inercias o comportamientos cíclicos. Este comportamiento cíclico puede producir autocorrelación en las perturbaciones; de forma que, en las regresiones con datos de series temporales es muy probable que los valores de la perturbaciones dependan de los valores previos. - **Transformación de datos**: es posible que al incluir en una regresión variables en diferencias o en tasas aparezcan problemas de autocorrelación. --- ##### Autocorrelación: consecuencias - Si las perturbaciones presentan autocorrelación, al igual que en el caso de la heterocedasticidad, **los estimadores MCO continúan siendo insesgados, pero ya no serán óptimos** - Los estimadores MCO no son óptimos: hay un método mejor **MCG** - La estimación de las varianzas de los estimadores obtenida aplicando la formula usual no es válida cuando existe autocorrelación - Por lo tanto, los estadísticos `\(t\)` y `\(F\)` basados en dicha estimación de la matriz de covarianzas darán lugar a inferencias erróneas --- ##### Autocorrelación: ¿qué hacer? - Las soluciones son muy similares a cuando tenemos un problema de heterocedasticidad - La solución teórica está clara: estimar por **MCG** (Mínimo Cuadrados Generalizados) - Pero ... no siempre es posible - Si se decide seguir estimando por MCO, aún sabiendo que no es lo óptimo, al menos habrá que ajustar el estimador de la matriz de varianzas y covarianzas de los estimadores de forma correcta, corrigiéndola para que sea consistente a la presencia de heterocedasticidad y autocorrelación, usando estimadores HAC: Heteroskedasticity and autocorrelation consistent.