Modelos Autorregresivos y de Rezagos Distribuidos.
Modelos Autorregresivos y de Rezagos Distribuidos.
Modelos Autorregresivos y de Rezagos Distribuidos.
Docente: Autores:
Modelos Atorregresivos.
Concepto.
Los modelos autorregresivos, como bien dice su nombre, son modelos que se regresan en sí
mismos. Es decir, la variable dependiente y la variable explicativa son la misma con la
diferencia que la variable dependiente estará en un momento del tiempo posterior (t) al de la
variable independiente (t-1). Decimos ordenados cronológicamente porque actualmente nos
encontramos en el momento (t) del tiempo. Si avanzamos un período nos trasladamos a (t+1)
y si retrocedemos un período nos vamos a (t-1).
Si el modelo incluye uno o más valores rezagados de la variable dependiente entre sus
variables explicativas, se denomina modelo Autorregresivo o dinámicos. Como se ha
explicado párrafos atrás.
Una forma de entender un modelo autorregresivo es un proceso que luego de enfrentado a una
perturbación tarda tiempo en regresar a su equilibrio de largo plazo.
Características.
Rezagos Distribuidos.
Concepto.
Los modelos con retardos distribuidos son un caso concreto de modelos dinámicos. Son la
metodología econométrica clásica para trabajar con modelos de regresión dinámicos.
Suelen suponer una distribución o pauta determinada de los retardos (para poder estimar los
parámetros). Esta distribución proviene de planteamientos de base económica (expectativas
adaptables, ajuste parcial, corrección del error...)
Características.
Este tipo de modelos permite que los coeficientes de las variables explicativas se puedan
representar mediante funciones más flexibles. Esta técnica está basada en el teorema de
Weierstrass que en términos generales dice que, en un intervalo finito cerrado, cualquier
función continua puede ser aproximada uniformemente mediante un polinomio de un grado
apropiado.
En economía, la dependencia de una variable Y (la variable dependiente) respecto de otra u otras
variables X (las variables explicativas) pocas veces es instantánea. Con frecuencia Y responde a X en
un lapso, el cual se denomina rezago.
Variables Retardadas.
Un retardo hace referencia a algo del pasado. Es algo que ocurre con efecto retardado. Es lo contrario
de efecto inmediato o contemporáneo.
Este efecto retardado puede darse después de uno o más periodos. Además, aunque en el ejemplo
inicial tan solo una variable presenta retardos, concretamente un retardo, el retardo puede estar
presente en más variables explicativas.
El método de las variables retardadas es muy importante dentro de las políticas públicas económicas y
de la econometría empírica porque su aplicación además de corregir la violación que produce la
autocorrelación en MCO (Mínimo de Cuadrados Ordinarios), proporciona el periodo de tiempo que
dura el impacto que suelen tener las políticas públicas por medio de variables específicas en la
economía.
Donde no se ha definido la longitud del rezago, es decir, hasta dónde se pretende retroceder en el
pasado, reciben el nombre de modelos de rezagos infinitos, mientras que, en viceversa, se llaman
modelos finitos por cuanto la longitud o tamaño del rezago k está plenamente especificada.
o Retardo mediano: Tiempo que, por término medio, es necesario para que transcurra
el 50% de la reacción. Primero que cumpla:
Nótese que tanto ut, como Yt-1 dependen de ut-1, las dos variables estarán correlacionadas. El
estimador MCO de a será inconsistente y si ρ es positivo, el parámetro será sesgado hacia arriba y el
estimador de rho será sesgado hacia abajo, de forma tal que el DW estimado estará sesgado hacia 2 y
no encontrará evidencia de autocorrelación serial.
Dado que la prueba DW no es aplicable a los modelos con rezago se sugiere una prueba alternativa
llamada, prueba h de Durbin y esta se define como:
Esta prueba se contrasta como una variable normal estándar. Donde ρ es estimado por los residuos
MCO y S2 β es la varianza del parámetro estimado y T es el tamaño de la muestra.
La prueba de Durbin Watson no puede ser utilizado para detectar la autocorrelación en los modelos
autorregresivos (como son el modelo de Koyck, y el modelo de expectativas adaptativas y el modelo
de ajuste de existencias), debido al siguiente hecho:
Sabemos que en la prueba de Durbin Watson, el estadístico “d” calculado debe estar alrededor
de “2” para que el modelo sometido a prueba de autocorrelación no este autocorrelacionado.
En los modelos autorregresivos, el estadístico “d” calculado tiende siempre a 2, por ende,
mediante la prueba de Durbin Watson no se puede detectar la autocorrelación en la variable
aleatoria µt en estos modelos.
En vista de ello se ha propuesto la prueba h de Durbin para muestras grandes para detectar la
autocorrelación de primer orden en los modelos autorregresivos (ut = p ut-1 +εt).
En esta prueba se utiliza el estadístico h.
donde:
n= tamaño de la muestra.
Para un tamaño de muestra grande (asintótica) Durbin demostró que, bajo la hipótesis nula de
que p=0, h sigue una distribución normal estándar, es decir h ~N(0,1).
A un nivel de significación del 5%: ׀h>׀1.96, por consiguiente, si en una aplicación: ׀h>׀1.96, se
puede rechazar la hipótesis nula de que p=0, es decir existe evidencia de que existe autocorrelación de
primer orden en el modelo autorregresivo dado.
b) Si ׀h > ׀1.96 => se rechaza H0 y se acepta la HA, es decir, que hay evidencia de autocorrelación en
el modelo.
Estimar la recta de regresión consiste en estimar los coeficientes de la regresión β0 y β1 para obtener la
recta:
Disponemos de dos criterios básicos de estimación, que proporcionan la misma solución. Utilizar uno
u otro depende de nuestros intereses estadísticos. Si tan sólo queremos determinar la recta, basta con
considerar el criterio de Mínimos Cuadrados. Si además pretendemos utilizarla con fines inferenciales
o predictivos, hablaremos de que nuestra solución es la máximo-verosímil, pero a su vez habremos de
ser más exigentes con las hipótesis del modelo.
Solución por Mínimos cuadrados.
Con:
Solución Máximo Verosímil
Así, el total de hipótesis básicas del modelo de regresión con fines inferenciales, viene
resumido en la siguiente expresión:
Desde este momento, los datos proporcionan información sobre los parámetros del
modelo, β=(β0,β1) a través de la verosimilitud conjunta:
Por tanto, obtener la solución más factible a la vista de los datos observados {(xi,yi),i=1,…,n}
equivale a obtener la solución máximo-verosímil, esto es, la que maximiza la verosimilitud.
Maximizar la verosimilitud es equivalente a maximizar la log-verosimilitud l(β,y), que tiene
una expresión más sencilla sin exponenciales. La solución máximo-verosímil se obtiene
derivando e igualando a cero l(β,y), lo que da lugar, de nuevo, a las ecuaciones normales. Así
pues, la solución máximo-verosímil coincide con la de mínimos cuadrados.
Para obtener el ajuste máximo verosímil utilizaremos la función lm() que permite el ajuste de
cualquier modelo lineal. Su expresión más básica viene dada por:
Propiedades de la recta de regresión.
Las propiedades más relevantes y básicas del ajuste de la recta de regresión son las siguientes:
3. La media de los valores observados yi coincide con la media de los valores predichos
y^i,
6. La suma de los residuos ponderados por el valor ajustado por la recta y^ es cero,
Modelo de Koyck.
Yt = B0 + B1 Xt* +ut.
donde:
Yt : demanda de dinero;
3) Por lo cual se propone la siguiente hipótesis que describe como se forma las expectativas:
Xt* - X*t-1 = θ ( Xt – X*t-1 ); donde 0< θ≤1.
4) La hipótesis implica que los agentes económicos adaptaran sus expectativas a la luz de la
experiencia pasada, es decir aprenderán de sus errores.
5) Xt* - X*t-1 : brecha entre el valor esperado actual y el valor esperado en el periodo anterior
( Xt – X*t-1 ): brecha entre el valor actual y su valor esperado anterior.
6) Las expectativas son corregidas en cada periodo por una fracción θ de la brecha entre el valor
actual de la variable y su valor esperado anterior.
Derivación del modelo de Expectativas Adaptativas.
1) Yt = B0 + B1 Xt* +ut.
Yt* = B0 + B1 Xt +ut;
donde:
3) En este caso tenemos que utilizar las dos hipótesis sobre las variables de expectativas.
2) los modelos autorregresivos son modelos que tienen como variables explicativas a
variables rezagadas de la variable endógena, es decir son de la forma siguiente:
4) Yt = α0 + B0 Xt + λ Yt-1 + λ ut.
E( vt vt-1) ≠0.
cov(vt ,Yt-1 ) ≠ 0.
6) El modelo de Koyck y el modelo de expectativas adaptativas no cumple con dos de los
supuestos del MCO.
Yt-1, este correlacionada con el termino de error vt es que los estimadores MCO no solamente
están sesgados, sino que, además, no son consistentes (aun si el tamaño de la muestra se
aumenta indefinidamente los estimadores no se aproximan a sus valores poblacionales)
— Sin embargo, el modelo de ajuste parcial es diferente. En este modelo vt=δut, donde
0<δ≤1. Por consiguiente, si ut satisface los supuestos del modelo clásico de regresión
lineal, igual lo hará δut, por tanto, la estimación MCO del modelo de ajuste parcial
tendrá estimaciones consistentes aun cuando las estimaciones tiendas a estar sesgadas
(en muestras finitas o pequeñas).
1) E( vt vt-1) = -λ σ2
La aparición de endogeneidad en una variable indica que esta variable está correlacionada con el
término de error. En otras palabras, se ha omitido una variable que está correlacionada con las otras.
Hablamos de variables explicativas que presentan correlación con el término de error. Otro método
muy popular para resolver el problema de la endogeneidad es el estimador de Mínimos Cuadrados en
Dos Etapas (MC2E). La función principal de VI es detectar la presencia de una variable explicativa en
el término de error.
El método de variables instrumentales es una alternativa para estimar el efecto de dicha variable de
interés (X1) sobre la variable dependiente. Intuitivamente, este método consiste en encontrar un
instrumento (Z) que juegue el rol de la variable de interés (X1) sin tener el problema que dicha
variable de interés tiene.
Introducción al concepto.
Queremos estudiar la variación de los precios de los forfaits en función del número de pistas y
las aversiones al riesgo de los esquiadores reflejada en la calidad del seguro. Ambas variables
explicativas son variables cuantitativas.
Suponemos que incluimos la variable segura en el término de error (u), resultando en:
Si hubiéramos estimado este modelo con Mínimos Cuadrados Ordinarios (MCO), hubiéramos
obtenido una estimación inconsistente y sesgada para B0 y Bk.
Esta variable instrumental (z) es exógena al Modelo 1 y, por tanto, no tiene ningún efecto
parcial sobre log(forfaits). Aun así, es relevante para explicar la variación en pistas.
Contraste de Hipótesis.
Para saber si estadísticamente la variable instrumental (z) está correlacionada con la variable
explicativa (pistas), podemos probar la condición Cov(z,pistas) ≠ 0 dada una muestra
aleatoria de la población. Para ello tenemos que hacer la regresiación entre pistas y z.
Utilizamos una nomenclatura distinta para diferenciar sobre qué variables se está regresando.
Interpretamos a los π0 y πk de la misma manera que las B0 y Bk en las regresiones
convencionales.
1. Definición de la hipótesis.
2. Estadístico de Contraste.
3. Regla de Rechazo.
Determinamos el nivel de significación al 5%. Por tanto, nuestra norma de rechazo se basará
en | t | > 1,96.
4. Conclusión.
Método de Shiller.
El indicador PER (Price to Earnings Ratio), es muy conocido en el análisis fundamental para las
empresas que cotizan en Bolsa, su sencilla ecuación que relaciona el precio de la acción (precio de
cotización) dividido por su BPA (Beneficio por acción) nos indica cuántas veces el beneficio está
incluido en el precio.
Así para un PER bajo, entre 0 y 10 nos indica que el precio está infravalorado o las expectativas de
beneficios son bajas, con un PER entre 10 y 17 (más apreciado en los mercados) nos encontramos con
empresas estables en la relación precio/beneficio, entre 17 y 25 tenemos sobrevaloración o esperanza
de buenos beneficios y con un PER por encima del 25, tenemos grandes expectativas de beneficios o
el valor se encuentra dentro de una burbuja especulativa. Siempre hay que hacer las comparativas con
empresas del mismo sector y en el mismo mercado, basándose en datos históricos.
Con los actuales ratios de 32 en el mercado americano, el doble que su media histórica, nos
preguntamos si el CAPE (ajuste del PER a beneficios normalizados de los últimos diez años) o PER
de Shiller sirve para algo.
Metodología.
Y calcular alguno de los estadísticos que comparan si la diferencia entre los ajustes de los
modelos anidados (en este caso se refiere a restringidos y no) son significativos. Por ejemplo,
el test de la verosimilitud (en Stata es lrtest después de dos regresiones almacenadas como
estimates store) se construye como:
A este modelo se le puede pasar el mismo test de Wald o el Lr test descrito para el caso
anterior a fin de determinar la causalidad. La elección de los retardos Como se ha
mencionado, una dificultad inherente a cualquiera de las dos versiones es determinar el
número de rezagos a incluir en los modelos. El mejor consejo es utilizar la razón en función
de la naturaleza temporal de los datos, pero también existe herramientas estadísticas que
puede ayudarnos. Así, en el caso de regresión lineal (MCO) se introducirían rezagos en tanto
creciera el coeficiente de determinación (R2) ajustado. En el caso de MCG, dicotómicos u
otros una alternativa sería Utilizar Akaike Información Criterion (AIC) o Criterios de
información Bayesiana (BIC) que son dos medidas usuales que comparan el ajuste (medido
como verosimilitud) de distintos modelos, estén o no anidados (Akaike, 1974; Raftery, 1995;
Sakamoto, Ishiguro, and Kitagawa, 1986); Schwarz, 1978; etc). Estas se definen como:
Donde:
En Stata, si, para estimar el modelo, se utiliza glm, binreg o ml también computa
ambos estadísticos, pero utiliza funciones algo distintas:
Donde:
N = número de observaciones.
Pero a la inversa: La razón de verosimilitudes relaciona el ajuste del modelo actual con
el del modelo en que sólo está la constante mientras que la Desviación relaciona el
ajuste del modelo actual con el del modelo saturado (el que ajusta perfectamente porque
contiene tantos parámetros a estimar como datos).