Análisis de las series temporales Introducción:
En 1970, Box y Jenkins propusieron una rigurosa metodología para la identificación, esti estima maci ción ón y diagn diagnós ósti tico co de mode modelo loss Diná Dinámi micos cos para para seri series es temp tempor oral ales es que, que, justificadamente, se ha convertido en una herramienta habitual en el análisis de series económicas. Son modelos en los que el comportamiento de una variable se explica sólo sólo util utiliz izan ando do su prop propio io pasa pasado do,, por por lo que que se los los cono conoce cen n como como mode modelo loss univariantes. En el análisis univariante, se pueden considerar tres grandes grupos: métodos de descomposición, método de alisado exponencial y modelos ARIMA univariantes. Nosotros nos concentraremos por ser sólo un enfoque de introducción al estudio de las series de tiempo en el método de Descomposición. Según dicho método, el esquema de generación de una serie temporal se puede descomponer en: tendencia, un factor cíclico, cíclico, estacionalidad y movimiento irregular. La Tendenc Tendencia ia reflej reflejaa las variacio variaciones nes a largo largo plazo. plazo. El factor factor cíclic cíclico o consis consiste te en variaciones superiores a un determinado límite temporal que no son estrictamente periódicas. Los movimientos estaciónales se caracterizan por tener una periodicidad de naturaleza naturaleza fija, aunque la amplitud puede ser variable. variable. Y el movimiento movimiento irregular irregular seria el componente de la serie no sujeto a ninguna periodicidad en el tiempo. Yt =Tt. Ct. Et. It Donde: Yt: Serie observada por el estadístico. Tt: Tendencia Ct: Factor Cíclico Et: Estacionalidad It: Movimiento irregular Este Este esquem esquemaa de integr integraci ación ón de los cuatro cuatro compone componente ntess para para formar formar la serie serie es multiplicativo. Aunque también podríamos hacerlo mediante a la suma de los cuatro componentes: Yt = Tt + Ct + Et + It La Metodología así dispuesta sobre la adición de los componentes de la serie de tiempo refleja que una vez que hayamos trabajado sobre la detección de la tendencia y la estacionalidad de la serie descripta por el estadista, y evitando trabajar con el cicl ciclo o por una una cues cuesti tión ón de simp simpli lifi fica caci ción ón,, obte obtend ndre remo moss un resi residuo duo que que es el comp compone onent ntee irre irregu gula larr resp respec ecto to de la seri seriee con con la que que trab trabaj ajáb ábam amos os.. Ento Entonc nces es obtuvimos:
It = Yt – Tt – Et Para aplicar la metodología de Box-Jenkins sobre el componente irregular de la serie es necesario realizar los siguientes supuestos sobre el componente irregular: a) Estacionariedad (veremos más adelante con profundidad los alcances de este concepto) b) Ergodicidad1 Una forma de abordar el análisis estadístico de una serie temporal económica consiste en considerar que la serie temporal correspondiente a una variable como el consumo agregado es la realización de un proceso estocástico. Bajo este punto de vista, cada dato de la serie es una realización (es decir, una muestra de tamaño 1) de la variable Ct que compone el proceso estocástico de consumo (ct) t = 1. ∞
Los procesos estocásticos
Las series históricas son sucesiones de variables aleatorias siendo su índice el tiempo {Xt}. Son observaciones tomadas a intervalos iguales, con lo cual las aplicaciones usuales corresponden a datos observados cada año, cada mes, cada hora, etc. Con los datos se analiza la estructura de correlación que presenta la muestra, de aquí se propone y se estima un modelo basado en ecuaciones en diferencias, el cual busca capturar la dinámica de la serie, que de ser correcta la formulación del modelo se valida y después se pronostican las futuras observaciones. Estos les llamaremos procesos Auto regresivos Integrados de Media Móvil (ARIMA). Según las propiedades que satisfagan las variables Yt, tendremos un proceso estocástico de uno u otro tipo: Procesos estacionarios
Un proceso estocástico (Yt) es estacionario en sentido estricto si para toda m-tupla (t1, t2, …tn) y todo entero k el vector de variables (y t1, y t2,…..,y tn) tiene la misma distribución de variables de probabilidad conjunta que el vector (y t1+k , y t2+k,…..,y tn+k). Si m fuera igual a 1, sería lo mismo que decir que las variables estacionarias que componen un proceso estocástico estacionario están idénticamente distribuidas. En particular, la esperanza y la varianza de las variables yt son independientes del tiempo. Si m = 2, la distribución conjunta del par (yt, yt-s) en un proceso estacionario debe ser independiente del tiempo. Como consecuencia, la covarianza entre ellas, así como su coeficiente de correlación, debe ser invariante en t, dependiendo únicamente del valor del retardo, s. El proceso..., Z0, Z2,..., ZT,... se llama débilmente estacionario de orden m si todos sus momentos hasta orden m existen y no dependen del tiempo. Se trabajará solamente con procesos que son débilmente estacionarios del segundo orden, también llamados procesos estacionarios en covarianza. Lo que implica que el proceso 1
Permite calcular los tres momentos ( media, varianza y covarianza ) llevando cada valor a lo largo del tiempo a un mismo punto en el tiempo, lo cual nos permitiría tener todas las observaciones para calcular la distribución de la serie.
estocástico {ZT} tiene media constante, varianza constante, además la covarianza no depende del tiempo sino de la distancia a la que se toman las observaciones: i) Tiene media constante no depende del punto de apoyo t, E[Zt] = m para toda t, su gráfica oscila alrededor del valor fijo m . ii) Tiene varianza constante, no depende del punto de apoyo t, Var(Zt) = s2 para toda t, se puede proponer una banda, la cual debe contener a casi toda la serie. iii) g (k)=Cov( Zt, Z t-k ) no depende de t, solo depende de k. Las covarianzas tienden a ser irrelevantes conforme k crece, observe que la correlación y la covarianza están ligadas por una constante. La covariación observada entre la variable y su propio pasado (zt , zt-k ), nos da una información vital para entender como la tendencia a moverse conjuntamente permite entender su desenvolvimiento. Repitiendo las ideas de modo indirecto. Hacer, si se necesita, una transformación para que la serie a modelar presente una oscilación alrededor de un nivel fijo y el patrón de co-movimiento de la variable con su pasado no se altere con el paso del tiempo, por lo tanto las covariaciones reveladas en su historia serán las covaraciones a presentarse en el futuro ya que la covarianza no depende del tiempo. Las covariaciones se capturan en una ecuación en diferencias, llamada ARMA (p, q) que veremos mas adelante. Una modificación útil es tomar la costumbre de restar la media a las observaciones originales para hacerlas centradas, o sea si la serie estacionaria {Z t} tiene media mZ, es muy conveniente ajustar la serie original y formar la serie centrada: {Wt}, Wt = Zt - mZ. centrados).
E[Wt]=0. (En la práctica siempre es recomendable tomar datos
Estos procesos estacionarios del segundo orden llamados también estacionarios en covarianza, forman la familia que define el ámbito de estudio, la cual tiene un miembro que lleva un lugar destacado en la teoría y la práctica, es el ruido blanco {at }. La serie {at }, o sea; a1,...,aT,...., se le llama ruido blanco si cumple las condiciones: E[at] = 0 media cero. Var(at) = s² varianza constante. Cov( at, as) = 0 para t diferente de s. No hay co-movimiento entre la serie y sus retrasos. Si se tiene un proceso estocástico de media cero, varianza constante, donde los diferentes términos no presentan co-movimiento (correlación) entre sí, esta serie se le llama ruido blanco. Si además cada variable aleatoria esta distribuida bajo la normal se le llama un proceso de ruido blanco gaussiano. La importancia radica en que el ruido blanco al no depender de su pasado las nuevas observaciones son solo
innovaciones debidas puramente al azar. Ya que no hay covariación entre at con at-k . El enlace lineal que presenta la serie {Zt}, con su pasado, lo cual se medirá por la covariación ya normalizada que es la correlación entre Zt con Zt-k . Usualmente las series económicas no son estacionarias sino que son evolutivas, esto se debe a que presentan una tendencia al crecimiento. Hay dos tipos de series que nos van a ser especialmente útiles de estudiar. Las series estacionarias por tendencia son aquellas en las que un polinomio guía la tendencia de la serie por lo que estas presentan oscilaciones alrededor de su línea determinista y cuando se presenta una perturbación la trayectoria de la variable aunque momentáneamente se altere, retoma su trayectoria de largo plazo la cual esta marcada por su tendencia determinista (o sea el polinomio).En este caso se hace una regresión, o sea se proyecta la serie contra el polinomio y los residuos son los datos ajustados por tendencia. La otra familia consiste de las series estacionarias en diferencias; ahora se trata de un proceso que su línea de tendencia la controla el azar, por lo que no manifiesta ninguna tendencia a tomar alguna trayectoria fija, la línea de tendencia es probabilista por lo que una perturbación manda la variable a una nueva trayectoria. En este caso se aplican primeras o segundas diferencias y se llega a una serie estacionaria en covarianza. La diferencia es muy importante y se usa una prueba de raíces unitarias para hallar a que grupo pertenece. Esto ha mostrado ser vital no solo para especificar correctamente un modelo, sino que más importante aún, nos obliga a considerar el carácter que poseen las series con las que se trabaja cuando se formulan los modelos. Series con tendencia determinística. En los métodos tradicionales se acostumbra tomar la descomposición de una serie en tres componentes la línea de tendencia, una componente estacional y la ultima una parte irregular. Se utiliza una especificación aditiva o multiplicativa:
Ejemplos de modelos usuales con tendencia determinista son:
Algunas veces están con términos retrasados de zt. En este contexto la noción "ajustar por tendencia o remover la tendencia determinista" significa ejecutar la regresión de la variable Zt contra tiempo y guardar los residuos, ya que corresponden a la nueva serie con la tendencia ya removida. En el caso de un polinomio de grado n,
los estadísticos: la t-Student y la prueba F son instrumentos para determinar el grado del polinomio, con la t prueba se analiza si han es cero en cuyo caso se estima el polinomio de grado n-1 y se vuelve a hacer la prueba sobre la significación del parámetro an-1. La prueba termina con el primer coeficiente significativo que es el grado del polinomio. No es correcto pensar que toda serie evolutiva, con ajustarle un polinomio y quedarse con los residuos ya se logra una adecuada serie estacionaria en covarianza, esto se logra solo con las series estacionarias en tendencia ( trend stationary) hay otra familia muy importante la cual se hace estacionaria utilizando diferencias (difference stationary). Series con tendencia estocástica. Estudios recientes afirman que el considerar la variable PIB como una serie de tendencia determinista es equivocado por lo que utilizar la regresión simple para estimar esta tendencia, se ha vuelto controvertida. Ya que implica un patrón de crecimiento determinístico fijo de largo plazo.
Los adherentes al ciclo económico real afirman que un avance tecnológico tiene efectos de largo plazo por lo que no se acepta esta noción de tendencia inmóvil de largo plazo. Dado que el surgimiento de las innovaciones tecnológicas es estocástico la línea de tendencia debe mostrar este carácter de aleatoriedad, por lo que se tiene que considerar que la tendencia es inherentemente probabilística y que un choque tiene efectos permanentes. Análisis de los Modelos Autorregresivos y de los Modelos de Medias Moviles Fase de identificación
Un correlograma es una representación gráfica de la función de autocorrelación (FAC) y de la función de autocorrelación parcial (FACP). El proceso de identificación consiste en comparar el comportamiento de éstos estadísticos con funciones de autocorrelación y autocorrelación parcial teóricas con los que pueden guardar alguna similitud. Para el caso de un AR (p), la FAC muestra un decrecimiento rápido de tipo geométrico puro si el signo de P es mayor a cero, caso contrario será un decrecimiento sinusoidad mientras que el FACP se anula para retardos superiores al “p”. En el caso de un MA (Q), la FAC se anula para retardos superiores a q, mientras que la FACP decrece rápido de tipo exponencial (si el signo de q es mayor que cero o sinusoidal en caso contrario. Si el modelo considerado fuera un ARMA (p, q), la FAC los primeros valores iniciales no tienen un patrón fijo y van seguidos de una mezcla de oscilaciones sinusoidales o exponenciales amortiguadas. En el mismo sentido, la FACP tiene los primeros valores iniciales que no poseen un patrón fijo y van seguidos de una mezcla de oscilaciones sinusoidales o exponenciales amortiguadas.
La representación de los correlogramas en el programa E-Views cuenta con cuatro columnas. En las dos primeras se puede observar el signo de FAC Y LA FACP. En la tercera columna encontramos los valores del estadístico de Ljung-Box. Debemos recordar que el Test de Lunj-Box que sigue una distribución Ji-Cuadrado con m grados de libertad, siendo m la longitud del rezago. La hipótesis nula es que la serie es ruido blanco. Y en la cuarta columna se puede encontrar el valor p-value a partir del cual si su probabilidad es mayor a 0.05, se aceptaría la hipótesis nula, caso contrario se rechazaría, y significaría que la serie tiene estructura. Cuadro 1
En el cuadro 1, el contraste teórico nos indicaría que se puede hablar de un modelo AR por el rápido decrecimiento sinusoidal con signo negativo de la “p”. Para comprobar si es un AR (10) habría que realizar un test de Barlett. Se puede comprobar que el modelo es ruido blanco. Cuadro 2
En el cuadro 2, se podrían sugerir varios modelos. Se podría indicar que es un MA (3) o quizás un ARMA (3,3). Para comprobarlo, se debería realizar el Test de BARLETT. Se puede comprobar al observar la cuarta columna que la serie no tiene estructura.
Cuadro 3
En el cuadro 3 el decrecimiento sinusoidal de la FAC nos sugeriría un AR 2, aunque también podríamos entrar en la duda de sugerir un ARMA ( , ).
1. Inversibilidad Todo proceso Autoregresivo estacionario es invertible en un modelo MA (∞) que siempre es estacionario
Cuando la cantidad de reemplazos tiene a infinito se pasa de un modelo AR(1) a un MA(∞) Lo mismo sucede si quisiéramos ir del MA al AR
Se pasa en este caso de un modelo MA (1) a un AR(∞)
2. Estudio de Media y Varianza en modelos AR
Media -Para modelo AR (1)
-Para modelo AR(p)
Obtenemos los mismos resultados que antes
Varianza (trabajamos con variables centradas) -Para AR (1)
-Para AR (p)
Funciones de Autocovarianza (FAS) Hay una relación entre la covarianza de dos periodos y la varianza de yt -Para modelo AR (1)
Las expresiones obtenidas al desarrollar las FAS son n ecesarias para poder expresar la función de autocorrelación. Función de Autocorrelación (FAC)
Si un proceso es estacionario los valores de su FAC irán disminuyendo a lo largo de los sucesivos periodos. Los shocks aleatorios disminuyen con el tiempo.
3. Estudio de Media y Varianza en modelos MA
Media -Para modelo MA (1)
Mismo resultado obtenemos para un proceso MA(q)
Varianza (trabajamos con variables centradas) -Para MA (1)
Función de Autocorrelación (FAC) -Para MA (1)
Obtenidas las FAS es fácil desarrollar las FAC
4. Estudio de Media y Varianza en modelos ARMA Lo que vamos a hacer ahora es ver rápidamente el problema de la estacionariedad.
Media -Para modelo ARMA (1,1)
Varianza (trabajamos con variables centradas) -Para ARMA (1,1)
Siguiendo así el análisis Función de Autocorrelación (FAC) -Para ARMA (1,1)
No será difícil a este punto calcular la FAC
Bibliografía:
Gujarati, Damodar. Econometría, tercera edición. Editorial McGraw-Hill. Novales Cinca, Alfonso. Econometría,Segunda Edición. Editorial McGraw-Hill. Uriel, Ezequiel. Análisis de Series Temporales. 1995. Editorial Paraninfo.