class: inverse, center, middle ## Tema 4 <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> ### Generalización: regresión lineal múltiple ###### (actualizadas el 07-07-2023) --- class: middle ### Tema 4. Generalización: regresión lineal múltiple 4.1 El modelo de regresión lineal múltiple <br> 4.2 Interpretación de coeficientes <br> 4.3 Medidas de bondad de ajuste: `\(R^{2}\)` ajustado <br> 4.4 Contrastes de hipótesis sobre un conjunto de parámetros: estadístico `\(F\)` <br> 4.5 Predicción puntual y por intervalos <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> **Bibliografía** - Ezequiel Uriel (2013): Capítulo 3 y Capítulo 4 (epígrafes 4.3 y 4.5) - Wooldridge (2015): Capítulo 3 (epígrafes 3.1 y .32) y Capítulo 4 (epígrafes 4.4 a 4.5) - Stock y Watson (2012): Capítulo 6 y Capítulo 7 (epígrafes 7.1 a 7.3) --- class: inverse, center, middle ### 4.1 El modelo de regresión lineal múltiple <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### El MRLM es muy similar al MRLS <br> `$$y_{i} = \beta_{1} + \beta_{2} x_{2i} + \beta_{3} x_{3i} + \; \; ... \; \; + \beta_{k} x_{ki} + u_{i}$$` --- ##### ¿para qué necesitamos el MRLM? ¿no nos vale con el MRLS? - ¿Qué ocurre si la variable endógena depende de más de una variable como explicativa de su comportamiento? - En ese caso, debemos incluir esos otros factores explicativos explícitamente en el modelo (si no lo hacemos, tendríamos un problema de omisión de variables relevantes) ##### El MRLM .bg-washed-green.b--dark-green.ba.bw2.br3.shadow-5.ph1.mt2[ `\begin{align} y_{i}=\beta_{1}+\beta_{2}x_{2i}+\beta_{3}x_{3i}+\;\;...\;\;+\beta_{k}x_{ki}+u_{i} \end{align}` ] <br> - Como veis, el MRLM es muy parecido al MRLS pero tiene `\((k-1)\)` variables explicativas y ** `\(k\)` regresores** --- ##### Ventajas de la regresión múltiple - Es evidente que `\(y\)` puede ser influenciada o explicada por más de una variable, por lo tanto necesitamos ampliar el modelo, para así poder controlar explícitamente por otras variables y **estimar con mayor precisión** el efecto de una `\(x\)` en `\(y\)` . - El MRLM, al introducir más regresores, puede explicar una mayor parte de la variación en `\(y\)`. De esta forma también puede proporcionar **mejores predicciones** de `\(y\)`. <br> - Otra ventaja adicional es que permite incorporar **relaciones funcionales** entre regresores y regresando **muy generales**. Por ejemplo: `$$consumo=\beta_{1} + \beta_{2} \; renta + \beta_{3} \;renta^{2}+u$$` --- ##### Terminología en el MRLM .bg-washed-green.b--dark-green.ba.bw2.br3.shadow-5.ph1.mt2[ `\begin{align} y_{i}=\beta_{1}+\beta_{2}x_{2i}+\beta_{3}x_{3i}+\;\;...\;\;+\beta_{k}x_{ki}+u_{i} \end{align}` ] <br> - Seguimos refiriéndonos a la variable `\(y\)` como variable dependiente, variable a explicar, **regresando** , ... - Seguimos refiriéndonos a la variables `\(x_{k}\)` como variables independientes, variables explicativas o **regresores** sólo que tenemos más. - Seguimos refiriéndonos a la variable `\(u\)` como término de error o **perturbación** aleatoria - `\(\beta_{1}\)` sigue siendo el término independiente - `\(\beta_{2}, \beta_{3}, .... , \beta_{k}\)` siguen siendo los parámetros de "pendiente" y son **parámetros**, que no conocemos, y queremos estimar <br> --- class: inverse, center, middle ### 4.2 Interpretación de coeficientes <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### Es similar a la del MRLS pero ... --- ##### los parámetros ( `\(\beta\)` ) En el **Modelo teórico**: `\(y = \beta_{1} + \beta_{2} x_{2} + \beta_{3} x_{3} + \; \; ... \; \; + \beta_{k} x_{k} + u\)` - `\(\beta_{1}\)` **sigue siendo** el término independiente. - Gráficamente sería la ordenada en el origen; es decir sería el valor de `\(y\)` si el resto de variables ( `\(x_{2}, x_{3}, ... , x_{k}\)` , además de `\(u\)`) fuesen cero. - Generalmente no tiene una interpretación con sentido económico o teórico. - `\(\beta_{j}\)` es el parámetro que acompaña a la variable `\(x_{j}\)`. - Gráficamente es la pendiente (en el espacio `\(y\)`, `\(x_{j}\)`) - Matemáticamente es la derivada parcial de `\(y\)` respecto de `\(x_{j}\)` - **Económicamente** representa, o es, el efecto marginal de `\(x_{j}\)` sobre `\(y\)`; es decir, indica cuantas unidades aumentaría `\(y\)` si, ceteris paribus, `\(x_{j}\)` aumentase en 1 unidad. ##### y los estimadores y estimaciones ( `\(\hat{\beta}\)` ) ¿serán "iguales"? --- ##### Interpretación de los estimadores `$$\hat{y} = \hat\beta_{1} + \hat\beta_{2} x_{2} + \hat\beta_{3} x_{3} + \; \; ... \; \; + \hat\beta_{k} x_{k}$$` - Los estimadores Siguen siendo las expresiones con las que obtener estimaciones de los `\(\beta\)`. - Los estimadores siguen obteniéndose al minimizar la `\(SCR\)` ##### ¿Serán iguales los estimadores en el MRLS y en el MRLM? - NO, no son iguales. - Piensa que ahora, aunque el problema teórico para obtener los estimadores conceptualmente es idéntico al que planteamos en el MRLS, en la práctica tendremos que derivar respecto a los `\(k\)`-estimadores, así que en lugar de 2, tendremos `\(k\)` derivadas, `\(k\)` ecuaciones normales y `\(k\)`- estimadores. - Simplemente os pondré uno de los estimadores: `$$\hat{\beta_{1}} = \overline{y} - \hat{\beta_{2}} \; \overline{x_{2}} - \hat{\beta_{3}} \; \overline{x_{3}} - , ..., - \hat{\beta_{k}} \; \overline{x_{k}}$$` --- ##### ¿Serán iguales las estimaciones en el MRLS y en el MRLM? - Evidentemente NO. - Imagina que hemos estimado por MCO los siguientes 2 modelos: `$$\hat{y} = 5.1 + 3.2 x_{2}$$` `$$\hat{y} = 7 + 2.5 x_{2} + 0.27 x_{3}$$` <br> - Como veis, tenemos 2 modelos estimados ¿Cuál es el efecto de `\(x_{2}\)` sobre `\(y\)`? ¿Es 3.2 o 2.5? --- class: inverse, center, middle ### 4.3 Medidas de bondad de ajuste: `\(R^{2}\)` ajustado <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### `\(\overline{R^{2}}\)` es similar al `\(R^{2}\)` pero ... y ... --- ##### `\(R^{2}\)` para comparar modelos - En el tema 3 vimos el coeficiente de determinación `\(R^{2}\)` como medida de bondad de ajuste, pero muchas veces se usa para **comparar modelos** - Estrictamente, para poder comparar modelos en base al `\(R^{2}\)`, los modelos han de tener el mismo **regresando**, haber sido estimados con el mismo tamaño muestral y el **mismo número de regresores**. ##### ¿por qué el mismo número de regresores? - `\(R^{2}\)` **nunca disminuye si añadimos regresores** al modelo, sino que generalmente aumenta. - La inclusión de una variable, aunque sea muy poco explicativa, incrementa el `\(R^{2}\)`, pero reduce `\((N-k)\)` los grados de libertad. - Si lo que se desea es comparar entre modelos diferentes, con igual regresando, pero diferente número de variables explicativas, **necesitamos otro estadístico**: el `\(R^{2}\)`-corregido o `\(\overline{R^{2}}\)` --- ##### `\(R^{2}\)`-corregido o `\(\overline{R^{2}}\)` - `\(\overline{R^{2}}\)` se construyó expresamente para penalizar a los modelos que añaden variables al modelo, de forma que `\(\overline{R^{2}}\)` sólo aumenta si el nuevo regresor explica lo suficiente la varianza total. `$$\overline{R^{2}} = 1 - \frac{SCR / (N-k)}{SCT / (N-1)}$$` - Por construcción, `\(\overline{R^{2}}\)` penaliza a los modelos con elevado número de regresores ( `\(k\)` ) - `\(R^{2}\)` **no** puede disminuir al aumentar el número de regresores ( `\(\uparrow k\)` ), pero `\(\overline{R^{2}}\)` sí, ya que ... - ... cuando se introduce un regresor más al modelo, SCR generalmente cae, pero también lo hace los grados de libertad `\((N-k)\)`, de forma que el cambio en `\(\overline{R^{2}}\)` no está determinado --- ##### `\(R^{2}\)` y `\(\overline{R^{2}}\)` están relacionados `$$\overline{R^{2}} = 1 - (1 - R^{2})\frac{(N-1)}{(N-k)}$$` - Por lo tanto: - si `\(k = 1\)`, entonces, `\(\overline{R^{2}} = R^{2}\)` - si `\(k > 1\)`, entonces, `\(\overline{R^{2}} < R^{2}\)` - si `\(R^{2} = 1\)` , entonces `\(\overline{R^{2}} = 1\)` - la cota superior del `\(\overline{R^{2}}\)` es 1, igual que la del `\(R^{2}\)` - `\(\overline{R^{2}}\)` puede ser negativo; por ejemplo si `\(k=2\)` y `\(R^{2} = 0\)` ##### Recuerda que ... - `\(\overline{R^{2}}\)` se puede utilizar para comparar modelos con distinto número de regresores, pero, para poder compararlos, los modelos **tienen que tener** el mismo regresando. - La razón es sencilla: si el regresando fuese distinto la `\(SCT\)` también y, por tanto no se podrían hacer comparaciones --- class: inverse, center, middle ### 4.4 Contrastes de hipótesis sobre un conjunto de parámetros: estadístico `\(F\)` <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### el `\(t\)`-ratio solo puede contrastar hipótesis con una sola restricción --- ##### Recordando para qué servía el t-ratio - El t-ratio, tal y como lo hemos visto, sirve para plantear contrastes de hipótesis en los que la `\(H_{0}\)` tiene **una única restricción** y ... además en esa restricción aparece un sólo parámetro ( `\(\beta\)` ) - Por ejemplo: `\(H_{0}: \beta_{2} = 0\)` o `\(H_{0}: \beta_{2} = 3\)` o, - Es decir, sólo podemos utilizar el t-ratio para contrastes del tipo: `\(H_{0}: \beta_{i} = valor\)` ##### El t-ratio no sirve para todas las `\(H_{0}\)` - Repetimos: el **t-ratio** sólo sirve para realizar contrastes de hipótesis en los que la `\(H_{0}\)` tiene **una única restricción** y ... además en esa restricción **aparece un sólo parámetro** ( `\(\beta\)` ) - En otros casos tendremos que usar otro estadístico: el **estadístico F**, que veremos en breve. --- ##### Por ejemplo, el t-ratio no sirve para ... Hipótesis nulas con **1 restricción** pero en la que **aparecen varios parámetros**: - `\(H_{0}: \beta_{2} + \beta_{3} = 1\)` - `\(H_{0}: \beta_{2} = \beta_{3}\)` - `\(H_{0}: \beta_{2} = \beta_{3} + \beta_{5}\)` <br> Hipótesis nulas con **más de 1 restricción** - `\(H_{0}: \beta_{2} = \beta_{3} = 0\)` - `\(H_{0}: \beta_{2} = 4\)` y `\(\beta_{3} = -7\)` - `\(H_{0}: \beta_{2} = 4\)` y `\(\beta_{3} + \beta_{5} = \beta_{4}\)` --- ##### Restricciones lineales múltiples - A veces, es interesante o necesario contrastar **hipótesis compuestas de varias restricciones** ... y esto no podemos hacerlo con el `\(t\)`-ratio. - Un caso típico (y el más sencillo) de restricciones múltiples son las “restricciones de exclusión”: queremos saber si un grupo de variables independientes no tienen efecto parcial en el regresando. - Por ejemplo, si estamos trabajando con el modelo: `$$y_{i} = \beta_{1} + \beta_{2} x_{2i} + \beta_{3} x_{3i} + \beta_{4} x_{4i}+ u_{i}$$` <br> - Igual queremos contrastar la siguiente `\(H_{0}: \beta_{3} = \beta_{4} = 0\)` - La `\(H_{0}\)` tiene 2 restricciones ( `\(r = 2\)` ) y estamos planteando si los parámetros `\(\beta_{3}\)` y `\(\beta_{4}\)` son **conjuntamente no significativos**, ya que sus efectos parciales serían nulos. --- ##### Restricciones conjuntas: ¿qué forma toma la alternativa? - Para la siguiente `\(H_{0}: \beta_{3} = \beta_{4} = 0\)`, la hipótesis alternativa será .... - `\(H_{1}: \; \exists \beta_{j} \neq 0 \; \; para \; j = 3,4\)` - Fíjate que **no es necesario** que todos ellos sean distintos de cero, con que uno de ellos sea no-nulo ya se incumpliría la `\(H_{0}\)` - Es decir, la `\(H_{1}\)` se define como la **negación de la nula** ( `\(H_{1}: H_{0} \; no \; es \; cierta\)` ); o sea, el contraste se construye de forma que detecte cualquier alejamiento de la nula. - Puede ser tentador contrastar la anterior `\(H_{0}\)` mediante una sucesión de contrastes individuales con el estadístico `\(t\)`, pero esta opción no es apropiada. - Necesitamos un medio de **contrastar las restricciones conjuntamente**. Existe la posibilidad de que ninguna de las tres variables sean individualmente significativas pero, si lo sean conjuntamente --- ##### Restricciones conjuntas: ¿qué estadístico usamos? - ¿Qué estadístico usamos? El **estadístico `\(F\)`**, del cual ni siquiera os voy a mostrar su expresión, ya lo calculará Gretl por nosotros. - El estadístico F, bajo la `\(H_{0}\)` , y recordando que se han de cumplir las h.e.b, se distribuye como: `\(F \longrightarrow F_{r \; , \; (N-k)}\)` - De forma que (para un `\(\alpha\)` dado) se rechazará la `\(H_{0}\)` si el valor muestral del estadístico `\(F\)` excede el valor crítico de las tablas (el correspondiente percentil de la distribución `\(F_{r \; ,\; (N-k)}\)` <img src="data:image/png;base64,#../imagenes/tema_04_img_01.png" width="35%" style="display: block; margin: auto;" /> - Si se rechaza la `\(H_{0}\)`, se dirá que las variables son estadísticamente **significativas de forma conjunta** al nivel de significatividad `\(\alpha\)` --- class: center, middle <img src="data:image/png;base64,#../imagenes/tema_04_img_02.png" width="100%" style="display: block; margin: auto;" /> --- ##### Relación entre los estadísticos t y F - ¿Qué ocurre si utilizamos el estadístico `\(F\)` para contrastar la significatividad estadística de una sola variable explicativa? - Por ejemplo, utilizar el estadístico `\(F\)` para, por ejemplo, contrastar `\(H_{0}: β_{j} = 0\)`. - Ya sabemos que en este caso podemos utilizar el `\(t\)`-ratio. Entonces ¿hay dos formas de contrastar la misma hipótesis? La respuesta es NO. - Se puede demostrar que cuando se contrasta `\(H_{0}: β_{j} = 0\)` , el estadístico `\(F\)` es exactamente el cuadrado del correspondiente `\(t\)`-estadístico. Por lo tanto, **los dos nos conducirían al mismo resultado** (siempre que la alternativa sea a 2 colas). - Como el **estadístico `\(t\)` es más flexible** (puede utilizarse para contrastar alternativas de una y de dos colas) y es más fácil de calcular, no hay ninguna razón para usar el estadístico F cuando se quiere contrastar hipótesis con una única restricción. ##### **Conclusión:** para contrastar una única restricción es mejor utilizar el t-ratio --- ##### Contraste de significatividad global (del modelo) - Un caso particular de restricciones de exclusión es: `$$H_{0}:\,\forall\,\beta_{j}=0\,\,\,\,\,\,\,\,\,\,\,\,\,j\,=\,2,\cdots\,\,,\,k$$` - Es decir, ninguna de las variables explicativas afecta al regresando. - La alternativa consistirá en que al menos uno de los regresores es significativo `$$H_{1}: \exists \; \; algun \; \; \beta_{j} \neq 0 \; \; para \,j\,=\,2,\cdots\,\,,\,k$$` - Para este caso particular, el estadístico F se simplifica mucho y queda como: `$$\frac{R^{2}/(k-1)}{(1-R^{2})/(N-k)}\longrightarrow\mathcal{F}_{(k-1) \; , \; (N-k)}$$` --- ##### Contraste de significatividad global (output de regresión) - El contraste de significatividad global, suele ser ofrecido automáticamente por todos los paquetes econométricos cuando se efectúa una regresión por MCO. <img src="data:image/png;base64,#../imagenes/tema_04_img_03.png" width="100%" style="display: block; margin: auto;" /> --- ##### Contrastar restricciones conjuntas mediante SCR - Necesitaremos estimar dos modelos el **modelo general** (sin las restricciones incluidas) y el **modelo restringido** (modelo que incorpora las restricciones) - Por ejemplo, si estamos trabajando con el modelo: `$$y_{i} = \beta_{1} + \beta_{2} x_{2i} + \beta_{3} x_{3i} + \beta_{4} x_{4i}+ u_{i}$$` - y queremos contrastar: `\(H_{0}: \beta_{3} = \beta_{4} = 0\)` - El modelo general (MG) será: `\(y_{i} = \beta_{1} + \beta_{2} x_{2i} + \beta_{3} x_{3i} + \beta_{4} x_{4i}+ u_{i}\)` - El modelo restringido (MR) será: `\(y_{i} = \beta_{1} + \beta_{2} x_{2i} + u_{i}\)` - Es evidente que siempre ocurrirá que `\(SCR_{R} \geq SCR_{G}\)`. ¿Por qué? - Se trata de evaluar si el cambio en SCR es lo suficientemente grande como para no excluir las variables `\(x_{3}\)` y `\(x_{4}\)` del modelo. - Si al incluir las restricciones (modelo restringido) se produce un gran incremento en SCR, es **evidencia en contra de la H0**. - Si por contra, `\(SCR_{R}\)` próximo a `\(SCR_{G}\)` , esto indicará que las restricciones son **aproximadamente ciertas**. --- ##### Comparando los SCR de los modelos general y restringido - Por lo tanto, incluso aunque las `\(SCR\)`, por sí mismas, no nos dicen nada acerca de la validez de `\(H_{0}\)`, el incremento de SCR cuando se imponen las restricciones puede ayudarnos a decidir sobre la validez de `\(H_{0}\)`. - Hay que valorar si el incremento observado en `\(SCR\)` (al imponer las restricciones) es lo suficientemente grande, respecto a la `\(SCR\)` del modelo general, para poder rechazar la `\(H_{0}\)` - Como en cualquier contraste de hipótesis la respuesta depende del nivel de significación ( `\(\alpha\)` ). - Pero también necesitaremos un estadístico con distribución conocida bajo la nula (si la nula fuese cierta). --- ##### El estadístico `\(F\)` (en términos de `\(SCR\)`) - El estadístico `\(F\)` toma la forma `$$\frac{(SCR_{R}-SCR_{G})/r}{SCR_{G}/(N-k)} \longrightarrow\mathcal {F}_{r \; , \; (N-k)}$$` siendo: - `\(SCR_{G}\)` : Suma de cuadros residual del modelo general - `\(SCR_{R}\)` : Suma de cuadros residual del modelo restringido - `\((N-k)\)`: grados de libertad del modelo general - `\(r\)`: número de restricciones en la hipótesis nula <br><br> - Fíjate que el denominador del estadístico `\(F\)` es precisamente el estimador de `\(\sigma^{2}\)` en el modelo general. --- ##### El estadístico `\(F\)` en términos del `\(R^{2}\)` - Hay una formulación alternativa del estadístico `\(F\)` muy fácil de calcular y, por tanto, es conveniente conocerla. - Debido a que `\(SCR = SCT(1-R^{2})\)`, podemos reformular el estadístico `\(F\)` como: `$$\frac{(R^{2}_{G}-R^{2}_{R})/r}{(1 - R^{2}_{G})/(N-k)} \longrightarrow\mathcal {F}_{r \; , \; (N-k)}$$` <br> - Este estadístico es muy conveniente para contrastar restricciones conjuntas, pero no puede aplicarse a todos los tipos de restricciones lineales. <br> - Recordad que el estadístico `\(F\)` mide el aumento relativo en `\(SCR\)` o en `\(R^{2}\)` al movernos del modelo general al modelo restringido. --- ##### Ejemplo: contraste de significatividad global ... mediante `\(SCR\)` <br> - Hagamos el contraste de significativad global PERO comparando MG y MR <img src="data:image/png;base64,#../imagenes/tema_04_img_04.png" width="100%" style="display: block; margin: auto;" /> --- ##### ¿Usamos el estadístico `\(F\)` en función de los `\(SCR\)` o de los `\(R^{2}\)` ? - La forma básica del estadístico `\(F\)` en términos de `\(SCR\)` es posible usarla para cualquier conjunto de restricciones lineales. - Los cálculos (a mano) son más fáciles si usas el estadístico `\(F\)` en función de los `\(R^{2}\)`, pero no siempre podremos usarlo ##### ejemplo: no podemos usar `\(F\)` en función de los `\(R^{2}\)` - MG: `\(y_{i} = \beta_{1} + \beta_{2} x_{2i} + \beta_{3} x_{3i} + \beta_{4} x_{4i}+ u_{i}\)` - `\(H_{0} : \beta_{3} = 1 \; , \; \beta_{4} = 0\)` - El MR queda como: `\((y_{i} - x_{3i}) = \beta_{1} + \beta_{2} x_{2i} + u_{i}\)` <br> - En este caso, como el regresando del MG y MR no son iguales, no podremos usar el estadístico `\(F\)` expresado en función de los `\(R^{2}\)` - La razón estriba en que, al tener distintos regresandos, la SCT de los dos modelos es diferente. --- class: inverse, center, middle ### 4.5 Predicción puntual y por intervalos <html><div style='float:left'></div><hr color='#EB811B' size=1px width=796px></html> #### Uno de los principales usos de los modelos estadísticos --- ##### Predicción: otro de los usos de los modelos estadísticos - Hasta ahora nos hemos centrado en obtener y contrastar hipótesis acerca de los parámetros del MRL, pero ... - En Economía y también en el mundo de la empresa interesa, y mucho, disponer de técnicas para predecir el valor futuro de una variable ( `\(y\)` ). Hay múltiples métodos de predicción (cualitativos y cuantitativos). - La predicción es la **anticipación del comportamiento de la variable endógena** en el futuro, a partir de la información de la que se dispone hasta el momento presente - ¿Podemos usar nuestro MRL para predecir? **SÍ**. De hecho uno de los principales métodos de predicción consiste en el uso de modelos estadísticos - Hay que tener en cuenta que la **predicción puntual** consistirá es una "simple" extrapolación; mientras que la **predicción por intervalos** recoge, en cierta forma, una medida de la precisión de la predicción (fiabilidad de la predicción). - Por otro lado también, a posteriori, interesará evaluar cuál ha sido la **capacidad predictiva** del modelo. ¿Es el modelo adecuado para predecir? --- ##### Predicción puntual y por intervalos - La **predicción puntual** es una extrapolación del valor de la variable endógena para una nueva observación. - La **predicción por intervalos** se efectúa cuando nos interesa conocer la precisión de la estimación y el rango de valores donde se puede situar la variable para la nueva observación. --- ##### Predicción puntual - Si tenemos el modelo estimado: `$$\hat{salario} = -1.73 + 0.60 educacion + 0.06 experiencia -2.15 mujer$$` - y conocemos los niveles de educación (15 años), experiencia (0 años) y el genero (mujer), de una persona (Marta) podemos predecir su salario - La predicción puntual será una simple extrapolación: `\(\hat{salario_{Marta}} = -1.73 + 0.60 * 15 + 0.06 * 0 -2.15 * 1 = 5.12\)` - El modelo estimado predice que "una persona como Marta" tendrá un salario de 5.12 - ¿Nos equivocaremos? Seguro. Hay **múltiples fuentes de error**; así que, a pesar de que, bajo las h.e.b, el método o predictor que hemos usado es un predictor óptimo e insesgado, seguro que nos equivocamos. --- ##### 3 fuentes de error - Verdadero valor de `\(y_{0}\)`: `\(y_{0} = \beta_{1} + \beta_{2} x_{20} + u_{0}\)` - Predicción: `\(\hat{y_{0}} = \hat\beta_{1} + \hat\beta_{2} x_{20}\)` 1) Se ha utilizado el modelo estimado, no el modelo teórico; es decir, no se han utilizado los verdaderos valores de los parámetros 2) Perturbación aleatoria. En el valor de `\(y_{0}\)` hay una parte aleatoria `\(u_{0}\)` 3) Los valores de las variables explicativas no se conocen exactamente y estos valores bajo los cuales se ha condicionado la predicción, puede ser erróneos <br><br> - Podemos dar una medida del **margen de error**, o de la fiabilidad de la predicción presentando una estimación por intervalos --- ##### Predicción por intervalos - Intentamos dar un intervalo en el que con determinada confianza, generalmente al 95%, esté el valor verdadero valor de `\(y_{0}\)` (salario de Marta) - La amplitud de este intervalo difiere según se desee dar una **predicción individual** o una **predicción media** - Es más difícil predecir el comportamiento de un sujeto que el comportamiento medio de una población. Por ejemplo: - Precio de una casa concreta en la calle tal, frente al precio medio de las casas de similares características de una ciudad - Nota media en econometría de Juan frente a la nota media del grupo - Salario de Marta frente al salario medio de las personas de perfil similar (personas con características similares a Marta: mujer, con 15 años de educación y sin experiencia) - La amplitud del intervalo de predicción media es **menor** que la del intervalo de predicción individual --- ##### Predicción por intervalos - Un intervalo de predicción al `\((1- \alpha)\)`% se calcula como: `$$\hat{y_{0}} \; \; \pm \; \; t_{N-k}^{\alpha/2} \; ee$$` donde `\(ee\)` es el error estándar de la predicción - Por ejemplo si, `\(\hat{y_{0}} = 7\)`, y `\(ee = 0.6\)`, entonces un intervalo de confianza al 95% quedaría como: `$$7 \; \; \pm \; \; t_{N-k}^{0.05/2} \; 0.6$$` - De forma que si el modelo se ha estimado con `\(N = 124\)` y `\(k = 4\)`, entonces el intervalo al 95% quedaría como: `$$7 \; \; \pm \; \; t_{124-4}^{0.025} \; 0.6$$` - Que finalmente quedaría como: `$$[ 7 - (1.98 * 0.6) \; ; \; 7 + (1.98 * 0.6) ] \; \; = [5.812 \; , 8.188]$$` --- ##### Predicción por intervalos La amplitud del intervalo depende de: - del nivel de confianza del intervalo: un intervalo al 100% siempre dará un intervalo muy amplio `\((-\inf, + inf)\)` - La calidad del modelo de regresión: a mayor calidad menor amplitud del intervalo. - El tamaño de la muestra: a mayor tamaño muestral menor amplitud del intervalo - La dispersión en los datos de las variables exógenas: a mayor dispersión en los datos menor amplitud del intervalo - Parecido entre el perfil del sujeto a predecir y los sujetos de la muestra: a mayor parecido menor amplitud del intervalo