Analisis de Series Temporales - Maria Gonzales
Analisis de Series Temporales - Maria Gonzales
ISBN: 978-84-692-3814-1
04-09
Contenido
1. Introducci on 2. Procesos estoc asticos 2.1. Proceso estoc astico y serie temporal . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Caracter sticas de un proceso estoc astico . . . . . . . . . . . . . . . . . . . . . . . 2.3. Procesos estoc asticos estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Funci on de autocovarianzas y de autocorrelaci on . . . . . . . . . . . . . . 2.3.2. Estimaci on de los momentos . . . . . . . . . . . . . . . . . . . . . . . . . 1 11 11 12 13 14 17 18 19 19 22 22 27 31 31 34 38 43 43 44 45
2.4. Proceso Ruido Blanco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Modelos lineales estacionarios 3.1. Modelo Lineal General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Procesos autorregresivos: AR(p). . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1. Proceso AR(1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2. Proceso AR(p). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Procesos de Medias M oviles: MA(q). . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1. Proceso MA(1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2. Proceso MA(q). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Procesos Autorregresivos de Medias M oviles: ARMA(p,q). . . . . . . . . . . . . . 4. Modelos lineales no estacionarios 4.1. No estacionariedad en varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. No estacionariedad en media. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Modelos ARIMA(p,d,q). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i
SARRIKO-ON 4/09
4.3.1. Modelo de paseo aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2. Modelo de paseo aleatorio con deriva . . . . . . . . . . . . . . . . . . . . . 5. Modelizaci on ARIMA 5.1. Estrategia de modelizaci on ARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Identicaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1. An alisis de estacionariedad . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2. Identicaci on del modelo estacionario . . . . . . . . . . . . . . . . . . . . 5.3. Estimaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4. Validaci on del modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1. An alisis de coecientes estimados . . . . . . . . . . . . . . . . . . . . . . . 5.4.2. An alisis de residuos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6. Predicci on optima con modelos ARIMA(p, d, q) 6.1. Predicci on con modelos estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1. Predicci on con modelos MA(q). . . . . . . . . . . . . . . . . . . . . . . . . 6.1.2. Predicci on con modelos AR(p) . . . . . . . . . . . . . . . . . . . . . . . . 6.1.3. Predicci on con modelos ARMA(p,q). . . . . . . . . . . . . . . . . . . . . . 6.1.4. Predicciones con modelos estacionarios estimados . . . . . . . . . . . . . . 6.2. Predicci on con modelos no estacionarios. . . . . . . . . . . . . . . . . . . . . . . . 7. Modelos ARIMA estacionales
7.1. Modelos estacionales puros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 7.2. Modelos ARMA estacionales no estacionarios . . . . . . . . . . . . . . . . . . . . 107 7.3. Modelos ARIMA estacionales multiplicativos . . . . . . . . . . . . . . . . . . . . 109 7.4. Modelizaci on ARIMA estacional. . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 8. Ejercicios 135
ii
SARRIKO-ON 4/09
Consideremos algunos ejemplos de series temporales cuya evoluci on es bastante habitual cuando se trabaja con variables econ omicas. Gr aco 1.1: Renta Nacional UE 27 miembros
Renta Nacional UE27 (desestacionalizada)
1200000
1100000
1000000
900000
800000
700000
600000
19 95 TI 19 95 TII I 19 96 TI 19 96 TII I 19 97 TI 19 97 TII I 19 98 TI 19 98 TII I 19 99 TI 19 99 TII I 20 00 TI 20 00 TII I 20 01 TI 20 01 TII I 20 02 TI 20 02 TII I 20 03 TI 20 03 TII I 20 04 TI 20 04 TII I 20 05 TI 20 05 TII I 20 06 TI 20 06 TII I 20 07 TI 20 07 TII I 20 08 TI 20 08 TII I
La serie representada en el gr aco 1.1 es la Renta Nacional de la Uni on Europea (27 pa ses miembros). Es una serie trimestral que comienza el primer trimestre de 1995 y naliza el tercer trimestre de 2008. En el gr aco no se presentan los datos brutos de la serie, sino lo que se denomina serie desestacionalizada, es decir, la serie sin comportamiento estacional. Observando este gr aco se puede concluir que la renta nacional de la UE ha seguido en este periodo una evoluci on continuamente creciente, es decir, la serie presenta una tendencia creciente. Ahora bien, tambi en hay que se nalar que el ritmo de crecimiento de la serie no siempre es el mismo. Por ejemplo, al nal de la muestra se puede observar que la serie estaba creciendo a una tasa muy fuerte a partir de nales de 2005 y que este ritmo se suaviza a partir de nales del a no 2007. Incluso m as, a pesar de que la inspecci on visual de este gr aco lleva a decir que el comportamiento general, en promedio, de la serie es creciente, se pueden aislar momentos espec cos en que la renta nacional decrece, por ejemplo, principios de 1999, el tercer trimestre de 2001 o el tercer trimestre de 2003. El gr aco 1.2 representa el empleo en el estado espa nol. Es tambi en una serie trimestral que comienza el primer trimestre de 1961 y termina el cuarto trimestre de 1994. En este caso el comportamiento de la serie es muy variable, no se puede decir que tenga un comportamiento a largo plazo ni creciente ni decreciente sino que est a continuamente cambiando de nivel. As , al principio de la muestra, hasta el a no 1967, la serie crece. De 1967 hasta principios de los 80, el empleo crece en promedio suavemente, aunque con fuertes oscilaciones. Con la crisis de 1980, se observa una fuerte ca da del empleo hasta el a no 1985 cuando comienza a recuperarse r apidamente para estabilizarse en los a no 1988-90. De nuevo, el gr aco reeja claramente el efecto en el empleo de la crisis de comienzos de los a nos 90 con un descenso espectacular en solo dos a nos. Al nal de la muestra, la serie comienza a crecer t midamente. En el gr aco 1.3 podemos encontrar los Ingresos por turismo en el estado espa nol obtenidos de la Balanza de Pagos. Es una serie mensual que comienza el mes de enero de 1990 y termina 2
SARRIKO-ON 4/09
110
100
90
80 62 64 66 68 70 72 74 76 78 80 82 84 86 88 90 92 94
el mes de agosto de 2008. Si tuvieramos que describir brevemente la evoluci on de esta serie, resaltar amos, en primer lugar, que a largo plazo crece ya que en media el nivel de ingresos es superios al nal de la muestra que al principio de la misma, es decir, la serie tiene una tendencia creciente. Pero esta variable presenta tambi en un tipo de comportamiento c clico que no observabamos en las dos anteriores. Analizando con m as cuidado el gr aco observamos que, dentro de cada a no, los picos m as altos de los ingresos son siempre en verano (julio y agosto) y los m as bajos en invierno. Por lo tanto, si queremos estudiar esta serie y predecirla hemos de tener en cuenta todas sus caracter sticas, incluyendo los ciclos que se observan con un periodo anual y que se donominan, estacionalidad. Gr aco 1.3: Ingresos por turismo en el estado espa nol
Ingresos por turismo
5000000
4000000
3000000
2000000
1000000
0
1990M01 1990M06 1990M11 1991M04 1991M09 1992M02 1992M07 1992M12 1993M05 1993M10 1994M03 1994M08 1995M01 1995M06 1995M11 1996M04 1996M09 1997M02 1997M07 1997M12 1998M05 1998M10 1999M03 1999M08 2000M01 2000M06 2000M11 2001M04 2001M09 2002M02 2002M07 2002M12 2003M05 2003M10 2004M03 2004M08 2005M01 2005M06 2005M11 2006M04 2006M09 2007M02 2007M07 2007M12 2008M05
SARRIKO-ON 4/09
Debido a estas caracter sticas especicas de los datos de series temporales se han de desarrollar modelos espec cos que recojan y aprovechen la dependencia entre las observaciones ordenadas de una serie temporal. El conjunto de t ecnicas de estudio de series de observaciones dependientes ordenadas en el tiempo se denomina An alisis de Series Temporales. El instrumento de an alisis que se suele utilizar es un modelo que permita reproducir el comportamiento de la variable de inter es. Los Modelos de Series Temporales pueden ser: Univariantes: s olo se analiza una serie temporal en funci on de su propio pasado Multivariantes: se analizan varias series temporales a la vez. Un ejemplo muy popular en la literatura son las series de n umero de pieles de vis on y rata almizclera capturadas en C anada. Se sabe que existe una relaci on v ctima-depredador entre ambos animales lo que se supone que afecta a la din amica de ambas series. La forma de reejar estas interacciones din amicas entre ambas series es construir un modelo multivariante. Cuando se construye un modelo multivariante, para casos como este, suponemos que hay cierta dependencia o relaci on entre los pasados de las diversas series. Estas interacciones din amicas tambi en aparecen cuando construimos modelos multivariantes para variables econ omicas, tales como la renta, consumo e inversi on que, c omo es bien sabido, inuyen las unas en las otras. En este libro se van a considerar u nicamente los modelos de series temporales univariantes, por lo que se va a centrar en el an alisis de las series temporales univariantes. Una serie temporal univariante consiste en un conjunto de observaciones de una variable Y . Si hay T observaciones, se denota por Yt , t Yt , t = 1, . . . , T
El sub ndice t indica el tiempo en que se observa el dato Yt . Los datos u observaciones se suelen recoger a intervalos iguales de tiempo, es decir, equidistantes los unos de los otros; es el caso de series mensuales, trimestrales, etc. Cuando las observaciones se recogen solo en momentos determinados de tiempo, generalmente a intervalos iguales, nos referimos a una serie temporal discreta. Puede darse el caso de que los datos se generen de forma continua y se observen de forma continua, como, por ejemplo, la temperatura, que se observa de forma continua en el tiempo por medio de aparatos f sicos. En este caso denotamos la serie temporal por Yt , tR
y contamos con un n umero innito de observaciones. En este caso nos referiremos a una serie temporal continua. Sin embargo, la mayor a de las series disponibles, en particular, en las ciencias sociales, se observan en tiempo discreto a intervalos iguales, aunque se puedan suponer generadas por alg un proceso en tiempo continuo. Por lo tanto, este libro se centrar a en el estudio de variables discretas tomadas a intervalos regulares dejando de lado las variables continuas y las variables discretas tomadas a intervalos irregulares. 4
SARRIKO-ON 4/09
Cada uno de los datos, Yt , puede representar o una acumulaci on sobre un intervalo de tiempo de alguna cantidad subyacente, por ejemplo, lluvia diaria, o bien un valor tomado en un momento dado. Las variables ujo son aquellas que se miden respecto a un intervalo de tiempo. Por ejemplo, el consumo mensual de petr oleo. Las variables stock son aquellas que se miden en un momento determinado de tiempo, por ejemplo, la temperatura, las cotizaciones de bolsa, etc. Los m etodos de an alisis de series temporales son, en general, los mismos para ambos tipos de variables, pero puede haber ocasiones en que la distinci on sea de inter es debido a las distintas caracter sticas que tienen las observaciones. Los objetivos que se pueden plantear al analizar una serie temporal son muy diversos, pero entre los m as importantes se encuentran: a) Describir las caracter sticas de la serie, en t erminos de sus componentes de inter es. Por ejemplo, podemos desear examinar la tendencia para ver cuales han sido los principales movimientos de la serie. Por otro lado, tambi en el comportamiento estacional es de inter es, y para algunos prop ositos, nos puede interesar extraerlo de la serie: desestacionalizar. Esta descripci on puede consistir en algunos estad sticos resumen (media, varianza, etc.) pero es m as probable que incluya una o m as representaciones gr acas de los datos. La complejidad de una serie temporal (opuesta a una m.a.s.) es tal que a menudo requiere una funci on, m as que un simple n umero, para se nalar las caracter sticas fundamentales de las series; por ejemplo, una funci on t en vez de un n umero para recoger el valor medio de la serie. b) Predecir futuros valores de las variables. Un modelo de series temporales univariante se formula u nicamente en t erminos de los valores pasados de Yt , y/o de su posici on con respecto al tiempo (ning un modelo univariante puede ser tomado seriamente como un mecanismo que describe la manera en que la serie es generada: no es un proceso generador de datos). Las predicciones obtenidas a partir de un modelo univariante no son por lo tanto m as que extrapolaciones de los datos observados hasta el momento T . En este sentido se dice que son na ve; sin embargo, son en muchas ocasiones muy efectivas y nos proporcionan un punto de referencia con el que comprar el funcionamiento de otros modelos m as sosticados. Cuando las observaciones sucesivas son dependientes, los valores futuros pueden ser predichos a partir de las observaciones pasadas. Si una serie temporal se puede predecir exactamente, entonces se dir a que es una serie determinista. Pero la mayor a de las series son estoc asticas en que el futuro s olo se puede determinar parcialmente por sus valores pasados, por lo que las predicciones exactas son imposibles y deben ser reemplazadas por la idea de que los valores futuros tienen una distribuci on de probabilidad que est a condicionada al conocimiento de los valores pasados. Ambos objetivos pueden conseguirse a muy distintos niveles. Es evidente que, dada la muestra, calcular la media y la desviaci on t pica de las observaciones supone describir caracter sticas de la serie. De la misma manera podemos predecir que los valores futuros de la variable van a ser iguales al u ltimo valor observado. Sin embargo, en ninguno de los dos casos se usa la informaci on muestral de una manera sistem atica. El uso sistem atico de la informaci on muestral pasa normalmente por la formulaci on de modelos que pueden describir la evoluci on de la serie. 5
SARRIKO-ON 4/09
Los modelos utilizados para describir el comportamiento de las variables econ omicas de inter es, siempre responden a la misma estructura: Yt = P St + at donde: P St = Parte sistem atica o comportamiento regular de la variable, y at es la parte aleatoria, tambi en denominada innovaci on. En los modelos de series temporales univariantes la P St se determina u nicamente en funci on de la informaci on disponible en el pasado de la serie: P St = f (Yt , Yt1 , Yt2 , Yt3 , . . .) El an alisis de series temporales se basa en dos nociones fundamentales:
Componentes no observados. Se basa en la idea de que una serie temporal puede ser considerada como la superposici on de varios componentes elementales no observables: tendencia, estacionalidad y ciclo. La estimaci on de tendencias y el ajuste estacional atraen mucho la atenci on debido a su importancia pr actica para el an alisis de series econ omicas.
etricos que tratan de obtener la representaci on de la Modelos ARIMA . Son modelos param serie en t erminos de la interrelaci on temporal de sus elementos. Este tipo de modelos que caracterizan las series como sumas o diferencias, ponderadas o no, de variables aleatorias o de las series resultantes, fue propuesto por Yule y Slutzky en la d ecada de los 20. Fueron la base de los procesos de medias m oviles y autorregresivos que han tenido un desarrollo espectacular tr as la publicaci on en 1970 del libro de Box-Jenkins sobre modelos ARIMA. El instrumento fundamental a la hora de analizar las propiedades de una serie temporal en t erminos de la interrelaci on temporal de sus observaciones es el denominado coeciente de autocorrelaci on que mide la correlaci on, es decir, el grado de asociaci on lineal que existe entre observaciones separadas k periodos. Estos coecientes de autocorrelaci on proporcionan mucha informaci on sobre como est an relacionadas entre s las distintas observaciones de una serie temporal, lo que ayudar a a construir el modelo apropiado para los datos. Recordemos que el coeciente de correlaci on entre dos variables xt e yt , xy , mide el grado de asociaci on lineal entre ambas variables y se dene como: xy = cov (x, y ) V (x)V (y )
Este coeciente no tiene unidades por denici on y toma valores 1 xy 1. Si xy = 0, no existe relaci on lineal entre x e y . Si xy = 1, existe relaci on lineal perfecta y positiva entre x e y . Si xy = 1, existe relaci on lineal perfecta y negativa entre x e y . Una vez que tenemos una muestra de las variables x e y , se puede estimar este coeciente 6
An alisis de Series Temporales: modelos ARIMA poblacional mediante su correspondiente coeciente muestral:
T
SARRIKO-ON 4/09
(xt x )2
t=1 t=1
(yt y )2
El coeciente de correlaci on se puede utilizar como instrumento para analizar la estructura de correlaci on existente entre las observaciones de una serie temporal Yt . Si tenemos T observaciones Y1 , . . . , YT , podemos crear (T 1) pares de observaciones (Y1 , Y2 ), . . . , (YT 1 , YT ) . Si consideramos Y1 , . . . , YT 1 como una variable y Y2 , . . . , YT como otra, podemos denir la correlaci on entre ambas variables Yt , Yt+1 :
T 1
(1) )2 (Yt Y
t=1 t=1
(2) )2 (Yt+1 Y
(1) es la media muestral de las T 1 primeras observaciones e Y (2) es la media muestral donde Y de las T 1 u ltimas observaciones. Esta f ormula se suele aproximar por:
T 1
)(Yt+1 Y ) (Yt Y r1 =
t=1 T
)2 (Yt Y
t=1
El coeciente r1 mide la correlaci on, grado de asociaci on lineal, entre observaciones sucesivas; se le denomina coeciente de correlaci on simple o coeciente de correlaci on serial, o coeciente de autocorrelaci on de primer orden. En general, se puede estimar la correlaci on entre observaciones separadas por k intervalos, es decir, el coeciente de autocorrelaci on de orden k , como sigue:
T k
)(Yt+k Y ) (Yt Y rk =
t=1 T
)2 (Yt Y
t=1
Ejercicio 1.1. Qu e valores esperas para el coeciente de correlaci on muestral en estos casos?
SARRIKO-ON 4/09
200
180
160
1500
140
Consumo
1000
-20 0 20 40 60 80 100 120
variable Y
120
100
80
500 500
1000
1500
2000
2500
3000
variable X
Renta
El correlograma es el gr aco de los coecientes de autocorrelaci on de orden k contra el retardo k . Este gr aco es muy u til para interpretar el conjunto de los coecientes de autocorrelaci on de una serie temporal. La interpretaci on del correlograma no es f acil pero vamos a dar unas pistas al respecto. (A) Si una serie es puramente aleatoria, entonces para valores de T grandes, rk cualquier k = 0.
400
0, para
200
variable Y
-200
variable X
(B.1) Correlaci on a corto plazo. Sea una serie sin tendencia, que oscila en torno a una media constante, pero cuyas observaciones sucesivas est an correlacionadas positivamente, es decir, una serie en la que a una observaci on por encima de la media, le suele seguir otra o m as observaciones por encima de la media (lo mismo, para observaciones por debajo de la media). El correlograma es de la siguiente forma: un valor relativamente alto de r1 , seguido de algunos coecientes rk distintos de cero, pero cada vez m as peque nos y valores de rk aproximadamente cero para k grande.
Correlogram of ARMA11
SARRIKO-ON 4/09
65
60
55
50
45
40 20 30 40 50 60 70 80 90 00
(B.2) Correlaci on a corto plazo. Las series sin tendencia que oscilan en torno a una media constante pero que alternan valores con observaciones sucesivas a diferentes lados de la media general, presentan un correlograma que tambi en suele alternar los signos de sus coecientes.
4
Correlogram of AR1
Autocorrelation
-2
-4 1000 1005 1010 1015 1020 1025 1030 1035 1040 1045 1050
Por ejemplo, si el valor de r1 es negativo, el valor de r2 puede ser, sin embargo, positivo porque las observaciones separadas dos periodos tienden a estar al mismo lado de la media.
(C) Si la serie contiene una tendencia, es decir, cambia continuamente de nivel, los valores de rk no van a decrecer hacia cero r apidamente. Esto es debido a que una observaci on por encima de la media (o por debajo) de la media general es seguida de muchas observaciones por el mismo lado de la media debido a la tendencia. A lo largo del curso, se estudiar a como para que el correlograma sea informativo habremos de eliminar esta tendencia.
Autocorrelation
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
-0.716 0.521 -0.375 0.271 -0.194 0.138 -0.097 0.052 -0.029 0.004 -0.006 0.003 -0.014 0.017 -0.016
AC
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
0.882 0.689 0.556 0.448 0.350 0.277 0.207 0.143 0.117 0.128 0.133 0.122 0.101 0.071 0.035
AC
SARRIKO-ON 4/09
30 25 20 15 10 5 0 1860
1880
1900
1920
1940
1960
1980
(D) Si una serie presenta alg un tipo de ciclo, el correlograma tambi en presentar a una oscilaci on a la misma frecuencia. Por ejemplo, para series mensuales, r6 ser a grande y negativo, y r12 ser a grande y positivo. En general, el correlograma va a reproducir el comportamiento c clico presente en la serie. En las series con un comportamiento c clico permanente, el correlograma da de nuevo poca informaci on porque lo domina el comportamiento c clico presente en los datos. Si eliminamos la variaci on c clica de los datos el correlograma podr a ser m as u til.
Correlogram of AIRESTM
Los modelos de series temporales ARIMA van a ser el objetivo central del libro. Estos modelos se basan en la teor a de los procesos estoc asticos que se desarrolla en el cap tulo 2. Los modelos ARMA estacionarios se explican con detalle en el cap tulo 3 y los modelos ARIMA no estacionarios en el cap tulo 4. La metodolog a de modelizaci on ARIMA con las fases de identicaci on, estimaci on y contraste de diagn osticos se explica detalladamente en el cap tulo 5 y el cap tulo 6 se dedica a la predicci on. El cap tulo 7 trata sobre la especicaci on de los modelos de series temporales adecuados a los datos estacionales. Por u ltimo, el cap tulo 8 reune una colecci on de ejercicios para el trabajo propio del lector.
Autocorrelation
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
0.672 0.198 -0.187 -0.428 -0.469 -0.483 -0.483 -0.423 -0.173 0.192 0.619 0.874 0.607 0.184 -0.141 -0.365 -0.407 -0.438 -0.447 -0.390 -0.167 0.174 0.546 0.768 0.536 0.172 -0.095 -0.285 -0.345 -0.388 -0.419 -0.374 -0.175 0.137 0.469 0.679
AC
10
Autocorrelation
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
0.975 0.955 0.935 0.913 0.892 0.870 0.848 0.828 0.807 0.786 0.766 0.744 0.724 0.703 0.682
AC
2.1.
Un proceso estoc astico es una familia de variables aleatorias que, en general, est an relacionadas entre s y siguen una ley de distribuci on conjunta. Se denota por: Yt ( ), t = . . . , t 2, t 1, t, t + 1, t + 2, . . . , o . . . , Yt2 , Yt1 , Yt , Yt+1 , Yt+2 , . . . , o
{Yt }+
o simplemente Yt
Dado que el objetivo del libro es el an alisis de series temporales, consideraremos u nicamente secuencias de variables aleatorias ordenadas en el tiempo, pero no tiene por qu e ser as . Se podr a pensar, por ejemplo, en una ordenaci on de tipo espacial. Si se ja el tiempo, t = t0 , se tiene una variable aleatoria determinada de la secuencia, con su distribuci on de probabilidad univariante. Yt0 ( ),
Si se ja la variable aleatoria = 0 , se tiene una realizaci on del proceso, es decir, una muestra de tama no 1 del proceso formada por una muestra de tama no 1 de cada una de las variables aleatorias que forman el proceso: . . . , Yt2 (0 ), Yt1 (0 ), Yt (0 ), Yt+1 (0 ), Yt+2 (0 ), . . . . . . , Yt2 , Yt1 , Yt , Yt+1 , Yt+2 , . . . En el marco estad stico de los procesos estoc asticos, una serie temporal, Y1 , Y2 , . . . , YT , se puede interpretar como una realizaci on muestral de un proceso estoc astico que se observa u nicamente para un n umero nito de periodos, t = 1, 2, . . . , T . 11
SARRIKO-ON 4/09
En este contexto, por lo tanto, una serie temporal es una sucesi on de observaciones en la que cada una de ellas corresponde a una variable aleatoria distinta, y la ordenaci on de la sucesi on de observaciones es esencial para el an alisis de la misma, no se puede alterar, porque se cambiar an las caracter sticas de la serie que se quiere estudiar. Sin embargo, en la teor a del muestreo aleatorio, una muestra es un conjunto de observaciones de una u nica variable aleatoria y, por lo tanto, su orden es irrelevante. As , si se considera el proceso estoc astico Consumo Privado, + denotado por {Ct } , la serie temporal dada por los valores del consumo anuales publicados por la agencia estad stica correspondiente: C1996 C1997 C1998 C1999 C2000 C2001 C2002 C2003 C2004 C2005 C2006 C2007
es una realizaci on del proceso estoc astico, en principio innito, Consumo Privado que se observa u nicamente de 1996 a 2007. Sin embargo, si se considera el consumo semanal de una determinada clase de familias de una ciudad en un momento dado, la muestra tomada para N familias : C1 C2 C3 C4 ... CN es un conjunto de N observaciones de una variable aleatoria consumo familiar, C (, 2 ).
2.2.
Un proceso estoc astico se puede caracterizar bien por su funci on de distribuci on o por sus momentos. Funci on de distribuci on. Para conocer la funci on de distribuci on de un proceso estoc astico es necesario conocer las funciones de distribuci on univariantes de cada una de las variables aleatorias del proceso, F [Yti ], ti , y las funciones bivariantes correspondientes a todo par de variables aleatorias del proceso, F [Yti , Ytj ], (ti , tj ) , y todas las funciones trivariantes, ... En resumen, la funci on de distribuci on de un proceso estoc astico incluye todas las funciones de distribuci on para cualquier subconjunto nito de variables aleatorias del proceso: F [Yt1 , Yt2 , . . . , Ytn ], (t1 , t2 , . . . , tn ), siendo n nito
Momentos del proceso estoc astico. Como suele ser muy complejo determinar las caracter sticas de un proceso estoc astico a trav es de su funci on de distribuci on se suele recurrir a caracterizarlo a trav es de los dos primeros momentos. El primer momento de un proceso estoc astico viene dado por el conjunto de las medias de todas las variables aleatorias del proceso: E (Yt ) = t < , t = 0, 1, 2, . . . ,
El segundo momento centrado del proceso viene dado por el conjunto de las varianzas de todas las variables aleatorias del proceso y por las covarianzas entre todo par de variables aleatorias:
2 V (Yt ) = E [Yt t ]2 = t , < t = 0, 1, 2, . . . ,
t, s (t = s)
SARRIKO-ON 4/09
Si la distribuci on del proceso es normal y se conocen sus dos primeros momentos (medias, varianzas y covarianzas), el proceso est a perfectamente caracterizado y se conoce su funci on de distribuci on.
2.3.
En el an alisis de series temporales el objetivo es utilizar la teor a de procesos estoc asticos para determinar qu e proceso estoc astico ha sido capaz de generar la serie temporal bajo estudio con el n de caracterizar el comportamiento de la serie y predecir en el futuro. Si se quieren conseguir m etodos de predicci on consistentes, no se puede utilizar cualquier tipo de proceso estoc astico, sino que es necesario que la estructura probabil stica del mismo sea estable en el tiempo. La losof a que subyace en la teor a de la predicci on es siempre la misma: se aprende de las regularidades del comportamiento pasado de la serie y se proyectan hacia el futuro. Por lo tanto, es preciso que los procesos estoc asticos generadores de las series temporales tengan alg un tipo de estabilidad. Si, por el contrario, en cada momento de tiempo presentan un comportamiento diferente e inestable, no se pueden utilizar para predecir. A estas condiciones que se les impone a los procesos estoc asticos para que sean estables para predecir, se les conoce como estacionariedad. El concepto de estacionariedad se puede caracterizar bien en t erminos de la funci on de distribuci on o de los momentos del proceso. En el primer caso, se hablar a de estacionariedad en sentido estricto y, en el segundo, de estacionariedad de segundo orden o en covarianza. Estacionariedad estricta. Un proceso estoc astico, Yt , es estacionario en sentido estricto si y solo si: F [Yt1 , Yt2 , . . . , Ytn ] = F [Yt1 +k , Yt2 +k , . . . , Ytn +k ] (t1 , t2 , . . . , tn ) y k
es decir, si la funci on de distribuci on de cualquier conjunto nito de n variables aleatorias del proceso no se altera si se desplaza k periodos en el tiempo. astico, Yt , es estacionario en covarianza si y Estacionariedad en covarianza. Un proceso estoc solo si: a) Es estacionario en media, es decir, todas las variables aleatorias del proceso tienen la misma media y es nita: E (Yt ) = < , t b) Todas las variables aleatorias tienen la misma varianza y es nita, es decir, la dispersi on en torno a la media constante a lo largo del tiempo es la misma para todas las variables del proceso 2 V (Yt ) = E [Yt ]2 = Y < , t c) Las autocovarianzas solo dependen del n umero de periodos de separaci on entre las variables y no del tiempo, es decir, la covarianza lineal entre dos variables aleatorias del proceso que 13
SARRIKO-ON 4/09
disten k periodos de tiempo es la misma que existe entre cualesquiera otras dos variables que est en separadas tambi en k periodos, independientemente del momento concreto de tiempo al que est en referidas cov (Yt Ys ) = E [Yt ][Ys ] = |ts| = k < , k
Por lo tanto, un proceso estoc astico es estacionario en covarianza si y solo si: (1) E (Yt ) = <
2 < t=s V (Yt ) = Y |ts| = k < t = s
Si un proceso estoc astico es estacionario en covarianza y su distribuci on es Normal, es estacionario en sentido estricto. La pregunta relevante ahora es si las series econ omicas presentan, en general, un comportamiento estacionario. Una simple inspecci on visual de muchas series temporales econ omicas, permite comprobar que presentan cambios de nivel, tendencias crecientes, estacionalidades. En las guras del gr aco 2.1 se observa, por ejemplo, como la serie de Renta Nacional crece sistem aticamente o como la serie de N umero de parados cambia constantemente de nivel, creciendo y decreciendo. En ambos casos no se puede sostener el supuesto de que la media de todas las variables de los procesos que han generado estas series sea la misma, por lo que no son estacionarias en media. La serie de Ingresos por turismo tampoco reeja un comportamiento estacionario en media no s olo por su crecimiento a largo plazo sino por la presencia de la estacionalidad que hace que el comportamiento promedio de cada mes sea diferente. La serie de Recaudaci on de pel culas parece oscilar en torno a una media constante y, a pesar de ser mensual, no tiene comportamiento estacional. Sin embargo, tampoco presenta un comportamiento estacionario dado que se puede observar que la variabilidad de la serie no es la misma para todo el periodo muestral, luego no seria estacionaria en varianza. Se puede concluir, por lo tanto, que la mayor a de las series econ omicas no van a presentar comportamientos estacionarios. De todas formas, se proceder a a proponer modelos para los procesos estoc asticos estacionarios, en primer lugar, para luego pasar a analizar c omo se puede generalizar este tipo de modelos para incluir comportamientos no estacionarios del tipo observado en las series econ omicas.
2.3.1.
En principio, si se considera el proceso estoc astico te orico, Yt , que comienza en alg un momento del pasado lejano y acaba en un futuro indeterminado se pueden calcular un n umero indenido de autocovarianzas, por lo que conviene denir una funci on que las agrupe a todas. 14
SARRIKO-ON 4/09
1100000
4000000
1000000
3000000
900000
2000000
800000
1000000
700000
1990M01
1990M06
1990M11
1991M04
1991M09
1992M02
1992M07
1992M12
1993M05
1993M10
1994M03
1994M08
1995M01
1995M06
1995M11
1996M04
1996M09
1997M02
1997M07
1997M12
1998M05
1998M10
1999M03
1999M08
2000M01
2000M06
2000M11
2001M04
2001M09
2002M02
2002M07
2002M12
2003M05
2003M10
2004M03
2004M08
2005M01
2005M06
2005M11
2006M04
2006M09
2007M02
2007M07
2007M12
19 9
20 0
20 0
19 9
20 0
20 0
20 0
19 9
19 9
19 9
20 0
20 0
20 0
20 0
Nmero de parados
70000
Recaudacin de pelculas
200
60000
150
50000
100
40000
50
30000
20000
1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008
Funci on de autocovarianzas (FACV) La funci on de autocovarianzas de un proceso estoc astico estacionario es una funci on de k (n umero de periodos de separaci on entre las variables) que recoge el conjunto de las autocovarianzas del proceso y se denota por: k , k = 0, 1, 2, 3, . . . ,
Caracter sticas de la funci on de autocovarianzas: Incluye la varianza del proceso para k = 0: 0 = E [Yt ][Yt ] = V (Yt ) Es una funci on sim etrica: k = E [Yt ][Yt+k ] = E [Yt ][Ytk ] = k La funci on de autocovarianzas de un proceso estoc astico recoge toda la informaci on sobre la estructura din amica lineal del mismo. Pero depende de las unidades de medida de la variable, por lo que, en general, se suele utilizar la funci on de autocorrelaci on. 15
20 00 M 01 20 00 M 04 20 00 M 07 20 00 M 10 20 01 M 01 20 01 M 04 20 01 M 07 20 01 M 10 20 02 M 01 20 02 M 04 20 02 M 07 20 02 M 10 20 03 M 01 20 03 M 04 20 03 M 07 20 03 M 10 20 04 M 01 20 04 M 04 20 04 M 07 20 04 M 10 20 05 M 01 20 05 M 04 20 05 M 07 20 05 M 10 20 06 M 01 20 06 M 04 20 06 M 07 20 06 M 10 20 07 M 01 20 07 M 2 0 04 07 M 07 20 07 M 10 20 08 M 01 20 08 M 04 20 08 M 07
2008M05
600000
III III III III III III III III III III III III 8T 0T 2T 4T 6T 7T 6T 9T 5T 7T 5T 1T 8T 3T 3T 9T 5T 6T 7T 4T 5T 6T 0T 2T 7T 8T 1T 20 0 20 0 20 0 20 0 19 9 19 9 19 9 19 9 19 9 20 0 20 0 20 0 20 0 20 0 8T III III I I I I I I I I I I I I I I
El coeciente de autocorrelaci on de orden k de un proceso estoc astico estacionario mide el grado de asociaci on lineal existente entre dos variables aleatorias del proceso separadas k periodos: k = cov (Yt Yt+k ) k k = = 0 0 0 V (Yt ) V (Yt+k )
Por ser un coeciente de correlaci on, no depende de unidades y |k | 1, k . La funci on de autocorrelaci on de un proceso estoc astico estacionario es una funci on de k que recoge el conjunto de los coecientes de autocorrelaci on del proceso y se denota por k , k = 0, 1, 2, 3, . . . ,. La funci on de autocorrelaci on se suele representar gr acamente por medio de un gr aco de barras denominado correlograma. Gr aco 2.2: Funciones de autocorrelaci on
1.0
a)
0.5
1.0
b)
0.5
0.0
0.0
-0.5
-0.5
K
-1.0 2 1.0 4 6 8 10 12 14 16 18 20 -1.0 2 1.0 4 6 8 10 12 14 16 18
K
20
c)
0.5 0.5
d)
0.0
0.0
-0.5
-0.5
K
-1.0 2 4 6 8 10 12 14 16 18 20 -1.0 2 4 6 8 10 12 14 16 18
K
20
Las caracter sticas de la funci on de autocorrelaci on de un proceso estoc astico estacionario: El coeciente de autocorrelaci on de orden 0 es, por denici on, 1. Por eso, a menudo, no se le incluye expl citamente en la funci on de autocorrelaci on. 0 = 16 0 =1 0
SARRIKO-ON 4/09
k k Es una funci on sim etrica: k = 0 = 0 = k . Por ello, en el correlograma se representa la funci on de autocorrelaci on solamente para los valores positivos del retardo k .
La funci on de autocorrelaci on de un proceso estoc astico estacionario tiende a cero r apidamente cuando k tiende a . La funci on de autocorrelaci on va a ser el principal instrumento utilizado para recoger la estructura din amica lineal del modelo. Los gr acos de la gura 2.2 muestran 4 correlogramas correspondientes a diferentes series temporales. Los correlogramas a), b) y c) decrecen r apidamente hacia cero conforme aumenta k : exponencialmente en los casos a) y b) y trunc andose en el caso c). Son, por lo tanto, correlogramas correspondientes a series estacionarias. Por el contrario, los coecientes de autocorrelaci on del correlograma d) decrecen lentamente, de forma lineal, por lo que no corresponden a una serie estacionaria. Para caracterizar un proceso estoc astico estacionario por sus momentos existen dos opciones: a) Media y funci on de autocovarianzas: k , k = 0, 1, 2, 3, . . . 0 k , k = 1, 2, 3, . . .
2.3.2.
Los momentos poblacionales de un proceso estoc astico estacionario se estiman a trav es de los correspondientes momentos muestrales.
T
= a) Media: = Y
1 T t=1
Yt
T
0 b) Varianza:
(Y ) = = V
1 T t=1
)2 (Yt Y
T k
1 T t=1 k 0 ,
) (Yt+k Y ), (Yt Y k = 1, 2, . . . , K
k = 1, 2, . . . , K
Aunque para el proceso estoc astico te orico se cuenta con un n umero indenido de autocovarianzas y coecientes de autocorrelaci on, cuando se dispone de una serie temporal nita de tama no T , como m aximo se pueden estimar T 1 coecientes de autocorrelaci on, pero, en la pr actica, se van a estimar muchos menos. Se recomienda un m aximo de T /3 . Esto es debido a que cuanto mayor sea k menos informaci on hay para estimar k y la calidad de la estimaci on es menor. La estimaci on de los momentos poblacionales de un proceso estoc astico proporciona otra raz on por la que es necesario imponer la restricci on de estacionariedad de un proceso. Si el proceso que ha generado la serie (Y1 , Y2 , . . . , YT ) no fuera estacionario, ser a preciso estimar T medias 17
SARRIKO-ON 4/09
2 , y un gran n diferentes, t , T varianzas diferentes, t umero de autocorrelaciones, lo que no es posible contando con T observaciones solamente. La soluci on habitual a este tipo de problema es buscar m as datos pero, en el caso de las series temporales, esta soluci on no es v alida. Si conseguimos una serie temporal m as larga, por ejemplo, M observaciones m as, tendr amos que estimar M medias m as, M varianzas m as, etc. con lo cual estar amos en la misma situaci on.
2.4.
El proceso estoc astico m as sencillo es el denominado Ruido Blanco que es una secuencia de variables aleatorias de media cero, varianza constante y covarianzas nulas. Se denotar a habitualmente por at , t = 0, 1, 2, . . .: E (at ) = 0, t V (at ) = 2 , t Cov (at as ) = 0, t = s
As , un proceso ruido blanco, at RB (0, 2 ) , es estacionario si la varianza 2 es nita con funci on de autocovarianzas (FACV): k = 2 , k = 0 y y funci on de autocorrelaci on (FAC): k = 1, k = 0 y k = 0, k > 0 k = 0, k > 0
-1
-2
El gr aco 2.3 muestra una realizaci on de tama no 150 de un proceso ruido blanco normal con varianza unidad, at RBN (0, 1). Se observa que la serie simulada oscila en torno a un nivel constante nulo con una dispersi on constante y de forma aleatoria, sin ning un patr on de comportamiento, como corresponde a la ausencia de correlaci on en el tiempo entre sus observaciones. Dado que la caracter stica fundamental de las series temporales es la dependencia temporal entre sus observaciones, por lo que no es de esperar que muchas series econ omicas presenten un comportamiento que responda a una ausencia de correlaci on temporal en el sentido de que lo que ocurre hoy no tiene relaci on lineal con lo sucedido en el pasado. De todas formas, el proceso ruido blanco es muy u til en el an alisis de series temporales porque es la base para la construcci on de los modelos ARIM A(p, d, q ). 18
La metodolog a de la modelizaci on univariante es sencilla. Dado que el objetivo es explicar el valor que toma en el momento t una variable econ omica que presenta dependencia temporal, una forma de trabajar es recoger informaci on sobre el pasado de la variable, observar su evoluci on en el tiempo y explotar el patr on de regularidad que muestran los datos. La estructura de dependencia temporal de un proceso estoc astico est a recogida en la funci on de autocovarianzas (FACV) y/o en la funci on de autocorrelaci on (FAC). En este contexto, se trata de utilizar la informaci on de estas funciones para extraer un patr on sistem atico y, a partir de este, un modelo que reproduzca el comportamiento de la serie y se pueda utilizar para predecir. Este procedimiento se har a operativo mediante los modelos ARMA que son una aproximaci on a la estructura te orica general. En un modelo de series temporales univariante se descompone la serie Yt en dos partes, una que recoge el patr on de regularidad, o parte sistem atica, y otra parte puramente aleatoria, denominada tambi en innovaci on : Yt = P St + at t = 1, 2, . . .
La parte sistem atica es la parte predecible con el conjunto de informaci on que se utiliza para construir el modelo, es decir, la serie temporal Y1 , Y2 . . . , YT . La innovaci on respecto al conjunto de informaci on con el que se construye el modelo, es una parte aleatoria en la que sus valores no tienen ninguna relaci on o dependencia entre s . La innovaci on en el momento t no est a relacionada, por lo tanto, ni con las innovaciones anteriores ni con las posteriores, ni con la parte sistem atica del modelo. Es impredecible, es decir, su predicci on es siempre cero. A la hora de construir un modelo estad stico para una variable econ omica, el problema es formular la parte sistem atica de tal manera que el elemento residual sea una innovaci on, en el mundo Normal, un ruido blanco. Dada una serie temporal de media cero, como el valor de Y en el momento t depende de su pasado, un modelo te orico capaz de describir su comportamiento ser a: Yt = f (Yt1 , Yt2 , Yt3 , . . .) + at t = 1, 2, . . .
donde se exige que el comportamiento de Yt sea funci on de sus valores pasados, posiblemente innitos. 19
SARRIKO-ON 4/09
Dentro de los procesos estoc asticos estacionarios se considerar au nicamente la clase de procesos lineales que se caracterizan porque se pueden representar como una combinaci on lineal de variables aleatorias. De hecho, en el caso de los procesos estacionarios con distribuci on normal y media cero, la teor a de procesos estoc asticos se nala que, bajo condiciones muy generales, Yt se puede expresar como combinaci on lineal de los valores pasados innitos de Y m as una innovaci on ruido blanco: Yt = 1 Yt1 + 2 Yt2 + 3 Yt3 + . . . + at Las condiciones generales que ha de cumplir el proceso son: a) Que el proceso sea no anticipante, es decir, que el presente no venga determinado por el futuro, luego el valor de Y en el momento t no puede depender de valores futuros de Y o de las innovaciones a. b) Que el proceso sea invertible, es decir, que el presente dependa de forma convergente de su propio pasado lo que implica que la inuencia de Ytk en Yt ha de ir disminuyendo conforme nos alejemos en el pasado. Esta condici on se cumple si los par ametros del modelo general (3.1) cumplen la siguiente restricci on:
2 i < i=1
t = 1, 2, . . .
(3.1)
El modelo (3.1) se puede escribir de forma m as compacta en t erminos del operador de retardos: Yt = (1 L + 2 L2 + . . . ) Yt + at (1 1 L 2 L2 . . . ) Yt = at (L) Yt = at
Otra forma alternativa de escribir el modelo (3.1) es: Yt = 1 at = (L) at = (1 + 1 L + 2 L2 + . . . ) at (L) t = 1, 2, . . . (3.2)
Es decir, el valor Yt se puede representar como la combinaci on lineal del ruido blanco at y su pasado innito. El modelo (3.2) cumple la condici on de estacionariedad si los par ametros del modelo satisfacen la siguiente restricci on:
2 i < i=1
Esta restricci on implica que el valor presente depende de forma convergente de las innovaciones pasadas, es decir, la inuencia de la innovaci on atk va desapareciendo conforme se aleja en el pasado. 20
SARRIKO-ON 4/09
Tanto la representaci on (3.1) como la (3.2) son igualmente v alidas para los procesos estoc asticos estacionarios siempre que se cumplan las dos condiciones antes mencionadas, o sea que el modelo sea no anticipante e invertible. Como en la pr actica se va a trabajar con series nitas, los modelos no van a poder expresar dependencias innitas sin restricciones sino que tendr an que especicar una dependencia en el tiempo acotada y con restricciones. Ser a necesario simplicar las formulaciones del modelo general (3.1) y/o (3.2) de forma que tengan un n umero nito de par ametros. Acudiendo a la teor a de polinomios, bajo condiciones muy generales, se puede aproximar un polinomio de orden innito mediante un cociente de polinomios nitos: (L) p (L) q (L)
donde p (L) y q (L) son polinomios en el operador de retardos nitos de orden p y q , respectivamente: p (L) = 1 1 L 2 L2 . . . p Lp q (L) = 1 1 L 2 L2 . . . q Lq Sustituyendo en el modelo (3.1), se obtiene: (L) Yt p (L) Yt = at q (L) p (L) Yt = q (L) at
Por lo tanto, el modelo lineal general admite tres representaciones, todas igualmente v alidas bajo los supuestos se nalados: Representaci on puramente autorregresiva (3.1), AR(): el valor presente de la variable se representa en funci on de su propio pasado m as una innovaci on contempor anea. Representaci on puramente de medias m oviles (3.2), M A(): el valor presente de la variable se representa en funci on de todas las innovaciones presente y pasadas. Representaci on nita : p (L) Yt = q (L) at (1 1 L 2 L2 . . . p Lp ) Yt = (1 1 L 2 L2 . . . q Lq ) at Yt = 1 Yt1 + 2 Yt2 + . . . + p Ytp
parte autorregresiva
En este modelo nito, el valor de Yt depende del pasado de Y hasta el momento t p (parte autorregresiva), de la innovaci on contempor anea y su pasado hasta el momento 21
SARRIKO-ON 4/09
t q (parte medias m oviles). Este modelo se denomina Autorregresivo de Medias M oviles de orden (p, q ), y se denota por ARM A(p, q ). Esta formulaci on nita es una representaci on m as restringida que las representaciones generales (3.1)-(3.2). Dos casos particulares del modelo ARM A(p, q ) de gran inter es son: AR(p). Modelo que s olo presenta parte autorregresiva, es decir, el polinomio de medias m oviles es de orden 0: Yt AR(p) Yt = 1 Yt1 + 2 Yt2 + . . . + p Ytp + at
M A(q ). Modelo que s olo presenta parte medias m oviles, es decir, el polinomio autorregresivo es de orden 0: Yt AR(p) Yt = at 1 at1 2 at2 . . . q atq
Cuando el modelo es conocido se puede utilizar cualquiera de las tres representaciones dependiendo de los intereses. Si el modelo no es conocido y hay que especicarlo y estimarlo a partir de una serie temporal concreta, hay que utilizar necesariamente la formulaci on nita. Cuando se construye un modelo de series temporales univariante el objetivo no es conseguir el verdadero modelo. Es preciso ser conscientes de que estamos tratando de modelar una realidad compleja y el objetivo es lograr un modelo parsimonioso y sucientemente preciso que represente adecuadamente las caracter sticas de la serie recogidas fundamentalmente en la funci on de autocorrelaci on. Los modelos ARM A(p, q ), AR(p) y M A(q ) son aproximaciones al modelo lineal general. Comenzaremos por caracterizar sus funciones de autocorrelaci on para conocer sus propiedades y posteriormente utilizarlos para modelar series y predecir. Ejercicio 3.1. Deriva el modelo nito a partir del modelo (3.2).
3.2.
El modelo autorregresivo nito de orden p, AR(p) es una aproximaci on natural al modelo lineal general (3.1). Se obtiene un modelo nito simplemente truncando el modelo general: Yt = 1 Yt1 + 2 Yt2 + . . . + p Ytp + at t = 1, 2, . . .
Para estudiar sus caracter sticas, comenzaremos por el modelo autorregresivo de orden 1, AR(1).
3.2.1.
Proceso AR(1).
En el proceso AR(1) la variable Yt viene determinada u nicamente por su valor pasado, Yt1 , y la perturbaci on contempor anea, at : Yt = Yt1 + at t = 1, 2, . . . 22 at RB (0, 2 ) (3.3)
SARRIKO-ON 4/09
La estructura de correlaci on temporal representada por el modelo AR(1) es como sigue: . . . Yt2 Yt1 Yt Yt+1 Yt+2 at1 at at+1 at+2 . . . at2 ... ...
es decir, la perturbaci on at entra en el sistema en el momento t e inuyendo en Yt y en su futuro, 1 pero no en su pasado . Para demostrar si el modelo AR(1) es estacionario para cualquier valor del par ametro es preciso comprobar las condiciones de estacionariedad. a) Estacionario en media: E (Yt ) = E ( Yt1 + at ) = E (Yt1 ) Para que el proceso sea estacionario, la media ha de ser constante y nita , lo que implica: E (Yt ) = E (Yt ) (1 ) E (Yt ) = 0 E (Yt ) = 0 =0 1
Por lo tanto, para que el proceso sea estacionario es necesario que el par ametro = 1 . b) Estacionario en covarianza: Para que el proceso sea estacionario, la varianza ha de ser constante y nita: 0 = E (Yt E (Yt ))2 = E ( Yt1 + at 0)2 = = 2 E (Yt1 )2 + E (at )2 + 2 E (Yt1 at ) = 2 V (Yt1 ) + 2 + 0 Dada la estructura de autocorrelaci on del proceso E (Yt1 at ) = E [(Yt1 0)(at 0)] = cov (Yt1 at ) = 0 Bajo el supuesto de que el proceso es estacionario, E (Yt1 )2 = V (Yt1 ) = V (Yt ) = 0 por lo que: 0 = 0 + 2 (1 2 ) 0 = 2 0 = 2 1 2
Para que el proceso sea estacionario, varianza constante y nita, es necesario que || < 1 .
Recu erdese adem as que suponemos que el proceso es no anticipante, es decir, el futuro no inuye en el pasado.
1
23
SARRIKO-ON 4/09
En lo que se reere a la funci on de autocovarianzas, la autocovarianza de orden k es: k = E (Yt E (Yt ))(Ytk E (Ytk )) = E (Yt Ytk ) = E [( Yt1 + at ) Ytk ] = E (Yt Ytk ) + E (at Ytk ) = k1 Por lo que: 1 2 3 . . . = 0 = 1 = 2 . . = .
Por lo tanto, si el par ametro autorregresivo es || < 1 , la varianza es nita y el resto de las autocovarianzas tambi en lo son, y adem as dependen u nicamente de los periodos de separaci on entre las variables y no del tiempo, por lo que el proceso es estacionario. Se puede concluir, por lo tanto, que el proceso AR(1) es estacionario si y s olo si || < 1. La funci on de autocovarianzas de un proceso AR(1) estacionario es: k = 2 1 2 k1 k=0 k>0
k =
Se puede demostrar f acilmente que la FAC de un AR(1) es una funci on exponencial: 1 = 0 = 2 = 1 = 2 3 = 2 = 3 . . . . . . Por lo que: k = k k = 1, 2, 3, . . . Dado que para procesos estacionarios el par ametro en valor absoluto es menor que la unidad, la funci on de autocorrelaci on decrece exponencialmente con k , es decir, se va aproximando a cero conforme k pero no llega nunca a valer cero. 24
SARRIKO-ON 4/09
= -0,7
10
-2
-4 1010
1
2
1020 1030 1040 1050 1060 1070 1080 1090 1100 1110 1120 1130 1140 1150
1
1010
1020
1030
1040
1050
1060
1070
1080
1090
1100
1110
1120
1130
1140
1150
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
Las guras del gr aco 3.1 muestran dos realizaciones de procesos AR(1) y sus correspondientes correlogramas. Ambas han sido simuladas en base a la misma realizaci on del ruido blanco at , por lo que s olo se diferencian en el valor del par ametro autorregresivo. El correlograma del proceso AR(1) de par ametro = 0,7 tiene todos los coecientes de autocorrelaci on positivos con decrecimiento exponencial. Como era de esperar esto supone una serie que oscila en torno a cero (su media) con una dispersi on estable, pero con rachas de observaciones por encima de la media seguidas de rachas de observaciones por debajo de la media. Este comportamiento por rachas de la serie ser a m as pronunciado o persistente cuanto m as se acerque el par ametro a la unidad. Para el proceso AR(1) de par ametro negativo, = 0,7 , el correlograma presenta un decrecimiento exponencial con coecientes que alternan de signo. La serie correspondiente a esta estructura de autocorrelaci on oscila en torno a cero (su media) con una dispersi on estable, pero con un comportamiento muy ruidoso, cruzando constantemente la media. on de las realizaciones AR(1) del gr aco 3.1 con la del ruido Ejercicio 3.2. Compara la evoluci blanco de la gr aco 2.3. Qu e diferencias observas entre ellas? A qu e son debidas? Una forma alternativa de escribir el modelo AR(1) es la siguiente: Yt = Yt1 + at (1 L) Yt = at Yt = 1 at 1 L
Por lo tanto, el modelo AR(1), no solo es una versi on restringida del modelo lineal general (3.1), sino que tambi en es una versi on restringida del modelo general de medias m oviles (3.2), en la que los innitos coecientes i dependen de un s olo par ametro . El modelo (3.3) se puede generalizar para representar procesos estoc asticos estacionarios con media distinta de cero: Yt = + Yt1 + at t = 1 , 2, . . . at RB (0, 2 ) (3.5)
Las caracter sticas del modelo (3.5) son las mismas que las del modelo (3.3) salvo por la media que no es nula. Se puede demostrar que: y solo s || < 1. El modelo (3.5) es estacionario s Media: E (Yt ) = E ( + Yt1 + at ) = + E (Yt1 ) Si el proceso es estacionario, la media es constante y: (1 ) E (Yt ) = E (Yt ) = < 1
La funci on de autocovarianzas y la funci on de autocorrelaci on son las mismas que las del modelo (3.3): 2 1 k=0 k=0 1 2 k = k = k1 k>0 k1 k>0 Esto es l ogico, ya que si restamos la media la media a ambos lados del modelo (3.5): Yt E (Yt ) = + Yt1 E (Yt ) + at Yt 1 = + Yt1 = Por lo que2 : Yt = Yt 1 + at ,
2
1 + at = + Yt1 + at = 1 1 1 + at
+ Yt1 + at = Yt1 1 1 1 1
V (Yt ) k (Y )
= =
26
SARRIKO-ON 4/09
3.2.2.
Proceso AR(p).
El proceso autorregresivo de orden p, expresa Yt en funci on de su pasado hasta el retardo t p y una innovaci on contempor anea: Yt = 1 Yt1 + 2 Yt2 + . . . + p Ytp + at En t erminos del operador de retardos, (1 1 L 2 L2 . . . p Lp ) Yt = at p (L) Yt = at at RB (0, 2 ) t = 1, 2, . . . (3.6)
donde p (L) recibe el nombre de polinomio autorregresivo y (1 , 2 , . . . , p ) es el vector de par ametros autorregresivos. En primer lugar es preciso comprobar si el proceso AR(p) cumple las condiciones de estacionariedad para cualquier valor de los par ametros. Esta comprobaci on que es relativamente sencilla para el modelo AR(1), se complica para modelos autorregresivos de orden mayor cuyos par ametros han de satisfacer restricciones complejas para ser estacionarios. El siguiente teorema proporciona condiciones necesarias y sucientes para que el modelo AR(p) sea estacionario. Teorema: Un proceso autorregresivo nito AR(p) es estacionario s y solo s el modulo de las ra ces del polinomio autorregresivo p (L) est a fuera del circulo unidad.
Condici on de estacionariedad:
|L| =
Modelo AR(2):
Yt = 1 Yt1 + 2 Yt2 + at
(1 1 L 2 L2 ) Yt = at
2 (L) = 1 1 L 2 L2 L1 , L2 = 1 2 1 + 4 2 2 2
1 1 L 2 L2 = 0
27
|L2 | =
2 1 + 4 2 >1 2 2
C omo se calcula el modulo de estas ra ces? - Si el radicando es positivo, (2 ces son reales y el modulo es el valor 1 + 4 2 ) > 0 , las ra absoluto. - Si el radicando es negativo, (2 ces son complejas de la forma 1 + 4 2 ) < 0 , las ra L1 , L2 = a b i y su modulo es igual a: |L1 | = |L2 | = a2 + b2
Las otras dos condiciones que tiene que cumplir el modelo lineal general y, por lo tanto, tambi en el AR(p) como aproximaci on al mismo, es que el modelo fuera no anticipante e invertible. Todo modelo autorregresivo nito, AR(p), cumple estas dos condiciones para cualquier valor de los par ametros autorregresivos ya que, por denici on, est a escrito en forma autorregresiva. Es decir, es no anticipante porque su formulaci on hace depender al valor de Yt de su pasado y no de su futuro y es invertible porque su formulaci on nita hace que se cumpla obligatoriamente la condici on
2 i < i=1
El modelo AR(p) (3.6) es una versi on restringida del modelo (3.1) ya que supone que todos los par ametros i = 0, i > p . Por otro lado, el modelo AR(p) se puede escribir como un medias m oviles de orden innito: 1 p (L) Yt = at Yt = at = (L) at = (1 + 1 L + 2 L2 + 3 L3 + . . .) at p (L) Yt = at + 1 at1 + 2 at2 + 3 at3 + . . . donde los par ametros i est an restringidos a depender del vector de par ametros autorregresivos (1 , 2 , . . . , p ) . Por lo tanto, el modelo (3.6) es tambi en una versi on restringida del modelo lineal general (3.2). Las caracter sticas del proceso estacionario AR(p) estacionario son: a) Media: E (Yt ) = E (1 Yt1 + 2 Yt2 + . . . + p Ytp + at ) = = 1 E (Yt1 ) + 2 E (Yt2 ) + . . . + p E (Ytp ) + E (at ) 28
An alisis de Series Temporales: modelos ARIMA Como el proceso es estacionario, la media es constante: (1 1 2 . . . p ) E (Yt ) = 0
SARRIKO-ON 4/09
E (Yt ) = 0
Este modelo se puede generalizar para representar series con media distinta de cero. El siguiente modelo AR(p): Yt = + 1 Yt1 + 2 Yt2 + . . . + p Ytp + at tiene media: (1 1 2 . . . p ) E (Yt ) = E (Yt ) = 1 1 2 . . . p
b) La funci on de autocorrelaci on, k , k = 0, 1, 2, . . . de un proceso AR(p) tiene la misma estructura que la de un proceso AR(1), es decir, decrece exponencialmente hacia cero sin truncarse. Ahora bien, para valores de p > 1 al ser el modelo m as complejo, la estructura de la FAC es tambi en m as rica y puede presentar m as variedad de formas. Ejemplo 3.2. Caracter sticas del modelo AR(2). Consideremos el modelo autorregresivo de orden 2 estacionario: Yt = 1 Yt1 + 2 Yt2 + at at RB (0, 2 ) t = 1 , 2, . . . (3.7)
Las caracter sticas de este proceso son las siguientes: a) Media. Como el proceso es estacionario, la media es constante: (1 1 2 ) E (Yt ) = 0 b) Funci on de autocovarianzas: 0 = E (Yt E (Yt ))2 = E (Yt )2 = E (1 Yt1 + 2 Yt2 + at )2 =
2 2 2 2 = 2 1 E (Yt1 ) + 2 E (Yt2 ) + E (at ) + 2 1 2 E (Yt1 Yt2 ) +
E (Yt ) = 0
2 2 2 1 E (Yt1 at ) + 2 2 E (Yt2 at ) = 2 1 0 + 2 0 + + 2 1 2 1
2 2 (1 2 1 2 ) 0 = + 2 1 2 1
0 =
2 + 2 1 2 1 2 1 2 1 2
1 = E (Yt E (Yt ))(Yt1 E (Yt1 )) = E (Yt Yt1 ) = = E [(1 Yt1 + 2 Yt2 + at ) Yt1 ] = = 1 E (Yt1 )2 + 2 E (Yt2 Yt1 ) + E (at Yt1 ) = 1 0 + 2 1 1 = 1 0 1 2 29
SARRIKO-ON 4/09
Estas dos ecuaciones proporcionan las dos primeras autocovarianzas, 0 , 1 en funci on de 2 los par ametros autorregresivos (1 , 2 ) y de , la varianza del ruido blanco. Las autocovarianzas, k , k > 1 son: k = E (Yt E (Yt ))(Ytk E (Ytk )) = E (Yt Ytk ) = = E [(1 Yt1 + 2 Yt2 + at ) Ytk ] = = 1 E (Yt1 Ytk ) + 2 E (Yt2 Ytk ) + E (at Ytk ) = 1 k1 + 2 k2 La funci on de autocovarianzas de un modelo AR(2) es, 0 1 k = 1 k1 + 2 k2 c) Los coecientes de autocorrelaci on son: k = k 1 k1 + 2 k2 = = 1 k1 + 2 k2 0 0 k = 1, 2, 3, . . . por lo tanto: k=0 k=1 k>1
0,6
0,6
0,4
0,4
0,2
0,2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,2
-0,2
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
0,8
0,8
El gr aco 3.2 muestra diferentes estructuras de funciones de autocorrelaci on para modelos AR(2) estacionarios. Cuando las ra ces del polinomio autorregresivo 2 (L) son reales, la funci on de autocorrelaci on es una funci on que decrece exponencialmente con todos los coecientes positivos o con alternancia de signos, como para el modelo AR(1). Si las ra ces del polinomio autorregresivo son complejas entonces la funci on de autocorrelaci on decrece exponencialmente hacia cero pero con forma de onda seno-coseno.
0,6
0,6
0,4
0,4
0,2
0,2
10
11
12
13
14
15
16
17
18
19
20
10
11
12
13
14
15
16
17
18
19
20
-0,2
-0,2
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
30
SARRIKO-ON 4/09
3.3.
El modelo de medias m oviles de orden nito q , M A(q ), es una aproximaci on natural al modelo lineal general (3.2). Se obtiene un modelo nito por el simple procedimiento de truncar el modelo de medias m oviles de orden innito: Yt = at 1 at1 2 at2 . . . q atq at RB (0, 2 )
Para estudiar sus caracter sticas, comenzaremos por el m as sencillo, el modelo medias m oviles de primer orden, M A(1).
3.3.1.
Proceso MA(1).
El modelo M A(1) determina el valor de Y en el momento t en funci on de la innovaci on contempor anea y su primer retardo: Yt = at at1 at RB (0, 2 ) t = 1, 2, . . . (3.8)
Los procesos de medias m oviles se suelen denominar procesos de memoria corta, mientras que a los autorregresivos se les denomina procesos de memoria larga. Esto es debido a que, como se puede observar en la estructura de correlaci on temporal del modelo M A(1) representada en el esquema siguiente, la perturbaci on at aparece en el sistema en el momento t e inuye en Yt e Yt+1 u nicamente, por lo que su memoria es de un solo periodo. Sin embargo, en un proceso autorregresivo la perturbaci on at aparece en el sistema en el momento t , inuye en Yt y a trav es de Yt en las observaciones futuras, permaneciendo su inuencia en el sistema un periodo m as largo. . . . Yt2 . . . at2 Yt1 at1 Yt at Yt+1 at+1 Yt+2 at+2 ... ...
Vamos a comprobar si el modelo M A(1) cumple las condiciones de estacionariedad para cualquier valor del par ametro . a) Estacionario en media: E (Yt ) = E (at at1 ) = 0 Por tanto, el modelo M A(1) es estacionario en media para todo valor del par ametro . b) Estacionario en covarianza: 0 = E (Yt E (Yt ))2 = E (Yt )2 = E (at at1 )2 = = E (at )2 + 2 E (at1 )2 2 E (at at1 ) = 2 + 2 2 0 0 = (1 + 2 ) 2 < 31
SARRIKO-ON 4/09
Es decir, la varianza del modelo M A(1) es constante y nita para cualquier valor de . Las autocovarianzas, k , k > 0: 1 = E (Yt E (Yt ))(Yt1 E (Yt1 )) = E (at at1 )(at1 at2 ) = = E (at at1 ) E (at1 )2 E (at at2 ) + 2 E (at1 at2 ) = 2 < 2 = E (Yt E (Yt ))(Yt2 E (Yt2 )) = E (at at1 )(at2 at3 ) = = E (at at2 ) E (at1 at2 ) E (at at3 ) + 2 E (at1 at3 ) = 0
La funci on de autocovarianzas es nita y depende s olo de k y no del tiempo, para cualquier valor del par ametro . Por lo tanto, se puede concluir que no es necesario poner restricciones sobre el valor del par ametro para que el modelo M A(1) sea estacionario. La funci on de autocorrelaci on de un proceso M A(1) 1 k = 1 + 2 0 es: k=0 k=1 k>1
La funci on de autocorrelaci on de un proceso M A(1) se caracteriza por ser una funci on truncada que sufre un corte bruco tomando el valor cero a partir del retardo 1. El gr aco 3.3 recoge dos realizaciones de los siguientes procesos M A(1) con sus funciones de autocorrelaci on correspondientes: (a) Yt = at + 0,8 at1 (b) Yt = at 0,5 at1 Se puede observar que ambas funciones de autocorrelaci on se truncan en el primer retardo como corresponde a un proceso medias m oviles de orden 1. El coeciente de autocorrelaci on, 1 , es positivo o negativo dependiente del signo del par ametro de medias m oviles. En cuanto a las series generadas con estos modelos, se nota que ambas oscilan en torno a la media cero con una 32
SARRIKO-ON 4/09
= -0,5
12
11
10
-1
-2
-3 1010
1
1020
1030
1040
1050
1060
1070
1080
1090
1100
1110
1120
1130
1140
1150
1
1010
1020
1030
1040
1050
1060
1070
1080
1090
1100
1110
1120
1130
1140
1150
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
varianza constante y que la serie generada por el modelo (a) con par ametro positivo es m as suave que la generada por el modelo (b) con par ametro negativo. Los modelos lineales tienen que cumplir, adem as, las condiciones de ser modelos no anticipantes e invertibles. Estas condiciones se comprueban f acilmente en modelos escritos de forma autorregresiva. Adem as, la representaci on autorregresiva siempre es m as intuitiva en el sentido de que si el objetivo es predecir parece l ogico que el modelo relacione lo que sucede en el presente con lo sucedido en el pasado de manera que las predicciones de futuras observaciones se construyan en base al pasado y presente observado. En principio, un modelo de medias m oviles no parece estar escrito de esta forma ya que Yt no depende directamente de las observaciones pasadas sino de la innovaci on y de sus valores pasados. Ahora bien, los modelos de medias m oviles tambi en se pueden escribir de forma autorregresiva. Escribiendo el modelo (3.8) en t erminos del operador de retardos, se tiene que: Yt = (1 L) at 1 Y t = at 1 L (L) Yt = at
(1 L + 2 L2 3 L3 + . . .) Yt = at Yt = at + Yt1 2 Yt2 + 3 Yt3 + . . . Esta representaci on AR() es restringida ya que, como se puede observar, todos los par ametros autorregresivos dependen del u nico par ametro de medias m oviles del modelo, , como sigue, i = ()i . El modelo M A(1) es no anticipante porque el futuro no inuye en el pasado. Para que el modelo M A(1) sea invertible es preciso que su representaci on autorregresiva sea convergente, es decir, 33
SARRIKO-ON 4/09
que se cumpla que la inuencia de Ytk va siendo menor conforme nos alejamos en el pasado. Esta condici on se cumple si:
(i )2 <
i=1
Para que se cumpla la condici on anterior es necesario y suciente que || < 1 , por lo que el modelo M A(1) no es siempre invertible sino que hay que poner restricciones sobre el valor del par ametro . Bajo las condiciones de invertibilidad, en este caso, || < 1 , el modelo M A(1), y cualquier modelo de medias m oviles, en general, se puede escribir en forma autorregresiva, por lo que si deseamos una representaci on autorregresiva para el modelo, no hace falta empezar por un AR(p). Siempre vamos a utilizar modelos invertibles porque de esta forma siempre se puede expresar el valor contempor aneo de Yt en funci on de su pasado observado. El modelo (3.8) se puede generalizar para representar procesos con media distinta de cero: Yt = + at at1 at RB (0, 2 ) (3.9)
Este modelo tiene la misma funci on de autocovarianzas y, por lo tanto, de autocorrelaci on, que el modelo (3.8). La u nica diferencia es que su media es distinta de cero: E (Yt ) = E [ + at at1 ] =
3.3.2.
Proceso MA(q).
El modelo medias m oviles nito de orden q , es la aproximaci on natural al modelo lineal general (3.2), ya que supone su truncamiento bajo el supuesto de que: i = 0 i > q Este modelo expresa el valor de Yt en funci on de la innovaci on contempor anea y de su pasado hasta el retardo q : Yt = at 1 at1 2 at2 . . . q atq En t erminos del operador de retardos queda como sigue: Yt = (1 1 L 2 L2 3 L3 . . . q Lq ) at Yt = q (L) at at RB (0, 2 ) (3.10)
donde q (L) se denomina polinomio de medias m oviles y (1 , 2 , 3 , . . . , q ) es el vector de par ametros de medias m oviles. El modelo M A(q ) es una generalizaci on del modelo M A(1), por lo tanto sus caracter sticas van a ser muy similares. Ahora bien, al introducir m as retardos de la perturbaci on en el modelo, la memoria aumenta y la estructura din amica representada por el modelo es m as rica. Si una perturbaci on entra en el momento t , inuye en Yt , en Yt+1 , y en valores posteriores hasta Yt+q . 34
SARRIKO-ON 4/09
Por lo tanto, la perturbaci on at en un modelo M A(q ) permanece q periodos en el sistema. Esta memoria m as larga del M A(q ) se ver a reejada en la estructura de la funci on de autocovarianzas y / o autocorrelaci on. Vamos a comprobar si el modelo M A(q ) es estacionario para cualquier valor de los par ametros de medias m oviles. Para ello ser a preciso comprobar si se cumplen las condiciones de estacionariedad. Pero teniendo en cuenta que el modelo medias m oviles nito de orden q no es m as que el resultado de truncar el modelo lineal general (3.2) a partir del retardo q , ser a estacionario bajo las mismas condiciones que el modelo general, es decir, si se cumple la condici on de que la sucesi on de los par ametros del modelo es convergente:
2 i i=1 q
=
i=1
2 i <
Como el n umero de par ametros de un M A(q ) es nito, esta condici on siempre se cumple y, por lo tanto, todos los modelos de medias m oviles nitos son siempre estacionarios para cualquier valor de sus par ametros. El modelo de M A(q ) (3.10) tiene media constante y cero, varianza constante y nita y su funci on de autocovarianzas est a truncada a partir del retardo q , es decir, k = k = 0 k = 0 k = 1, 2, . . . , q k>q
El modelo (3.10) se puede generalizar f acilmente para representar modelos con media no nula: Yt = + at 1 at1 2 at2 . . . q atq at RB (0, 2 ) (3.11)
Ejemplo 3.3. Caracter sticas del modelo M A(2). Consideremos el modelo de medias m oviles de orden 2: Yt = at 1 at1 2 at2 at RB (0, 2 )
Este proceso es estacionario para cualquier valor de 1 , 2 y sus caracter sticas son: a) Media: E (Yt ) = E (at 1 at1 2 at2 ) = 0
35
SARRIKO-ON 4/09
1 = E [(Yt E (Yt ))(Yt1 E (Yt ))] = E (Yt Yt1 ) = = E [(at 1 at1 2 at2 )(at1 1 at2 2 at3 )] =
2 = E (at at1 ) 1 E (at at2 ) 2 E (at at3 ) 1 E (at1 )2 + 1 E (at1 at2 ) + 2 + 1 2 E (at1 at3 ) 2 E (at1 at2 ) + 2 1 E (at2 )2 + 2 E (at2 at3 ) =
= 1 2 + 1 2 2 = (1 + 1 2 ) 2 2 = E [(Yt E (Yt ))(Yt2 E (Yt ))] = E (Yt Yt2 ) = = E [(at 1 at1 2 at2 )(at2 1 at3 2 at4 )] = = E (at at2 ) 1 E (at at3 ) 2 E (at at4 ) 1 E (at1 at2 ) +
2 + 1 E (at1 at3 ) + 1 2 E (at1 at4 ) 2 E (at2 )2 + 2 + 2 1 E (at2 at3 ) + 2 E (at2 at4 ) = 2 2
3 = E [(Yt E (Yt ))(Yt3 E (Yt ))] = E (Yt Yt3 ) = = E [(at 1 at1 2 at2 )(at3 1 at4 2 at5 )] = = E (at at3 ) 1 E (at at4 ) 2 E (at at5 ) 1 E (at1 at3 ) +
2 + 1 E (at1 at4 ) + 1 2 E (at1 at5 ) 2 E (at2 at3 ) + 2 + 2 1 E (at2 at4 ) + 2 E (at2 at5 ) = 0
La FAC de un proceso M A(2) es una funci on truncada en el retardo 2. Los coecientes de autocorrelaci on, 1 , 2 , pueden ser positivos, negativos, o de distinto signo dependendiendo de 36
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
0
1 2 3 4 5 6 7 8 9 10 11 12
13
SARRIKO-ON 4/09
14 15 16 17 18 19 20
-0,2
-0,2
-0,4
-0,4
-0,6
-0,6
-0,8
-1
-0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
los valores de los par ametros autorregresivos. El gr aco 3.4 muestra dos ejemplos de FAC de un M A(2). El modelo M A(q ) (3.11) tiene tambi en una representaci on AR() restringida: Yt = (1 L 2 L2 . . . q Lq ) at 1 Yt = at 1 L 2 L2 . . . q Lq (L) Yt = at (1 + 1 L + 2 L2 + 3 L3 + . . .) Yt = at
Esta representaci on AR() es restringida ya que todos los par ametros autorregresivos, i , dependen del vector de par ametros de medias m oviles del modelo (1 , 2 , . . . , q ) . El modelo M A(q ) es no anticipante porque el futuro no inuye en el pasado y ser a invertible si su representaci on autorregresiva es tal que la inuencia de Ytk es menor conforme nos alejamos en el pasado. Esta condici on se cumple si:
2 i < i=1
Por lo tanto, el modelo M A(q ) no es invertible para cualquier valor del vector de par ametros de medias m oviles, sino que estos tendr an que cumplir algunas restricciones. Derivar estas restricciones fue muy sencillo para el M A(1), pero se complica mucho al aumentar el orden del modelo de medias m oviles. El siguiente teorema proporciona condiciones necesarias y sucientes para el un modelo de medias m oviles sea invertible. Teorema: Un proceso de medias m oviles nito M A(q ) es invertible s y solo s el modulo de las ra ces del polinomio de medias m oviles q (L) est a fuera del circulo unidad.
37
Yt = (1 L) at
Condici on de invertibilidad:
|L| =
Modelo M A(2):
Yt = at 1 at1 2 at2
Yt = (1 1 L 2 L2 ) at
2 (L) = 1 1 L 2 L2 L1 , L2 = 1
2+4 1 2 2 2
|L2 | =
2+4 1 2 >1 2 2
3.4.
Los procesos autorregresivos de medias m oviles determinan Yt en funci on de su pasado hasta el retardo p, de la innovaci on contempor anea y el pasado de la innovaci on hasta el retardo q : Yt = 1 Yt1 + . . . + p Ytp + at + 1 at1 + . . . + q atq at RB (0, 2 ) (3.12)
Este modelo se puede escribir en t erminos del operador de retardos como sigue: (1 1 L . . . p Lp ) Yt = (1 1 L . . . q Lq ) at p (L) Yt = q (L) at donde p (L) es el polinomio autorregresivo y q (L) es el polinomio medias m oviles. El modelo (3.12) es una aproximaci on nita al modelo lineal general tanto en su forma AR() (3.1) como M A() (3.2). De hecho, si es estacionario su representaci on M A() es Yt = q (L) at p (L) Yt = (L) at Yt = at + 1 at1 + 2 at2 + 3 at3 + . . . 38
An alisis de Series Temporales: modelos ARIMA y si es invertible una representaci on AR() p (L) Yt = at p (L) (L) Yt = at
SARRIKO-ON 4/09
Tanto los pesos de la representaci on M A innita, como de la forma AR innita, est an restringidos a depender del vector nito de par ametros ARMA: 1 , 2 , . . . , p , 1 , 2 , . . . , q . Es estacionario el modelo ARM A(p, q ) para cualquier valor de sus par ametros? Teorema: Un proceso autorregresivo de medias m oviles nito ARM A(p, q ) es estacionario s y solo s el modulo de las ra ces del polinomio autorregresivo p (L) est a fuera del circulo unidad. Las condiciones de estacionariedad del modelo ARM A(p, q ) vienen impuestas por la parte autorregresiva, dado que la parte de medias m oviles nita siempre es estacionaria. Para comprobar si el modelo ARM A(p, q ) es no anticipante e invertible , se estudia su representaci on autorregresiva general. Teorema: Un proceso autorregresivo de medias m oviles nito ARM A(p, q ) es invertible s y solo s el modulo de las ra ces del polinomio medias m oviles p (L) est a fuera del circulo unidad. Las condiciones de invertibilidad del modelo ARM A(p, q ) vienen impuestas por la parte de medias m oviles, dado que la parte autorregresiva nita siempre es invertible porque est a directamente escrita en forma autorregresiva El modelo ARM A(p, q ) va a compartir las caracter sticas de los modelos AR(p) y M A(q ) ya que contiene ambas estructuras a la vez. El modelo ARM A(p, q ) tiene media cero, varianza constante y nita y una funci on de autocovarianzas innita. La funci on de autocorrelaci on es innita decreciendo r apidamente hacia cero pero sin truncarse. Ejemplo 3.5. Modelo ARM A(1, 1). Consideremos el modelo ARM A(1, 1) en el Yt se determina en funci on de su pasado hasta el primer retardo, la innovaci on contempor anea y el pasado de la innovaci on hasta el retardo 1: Yt = Yt1 + at at1 at RB (0, 2 ) t = 1, 2, . . . (3.13)
La estructura de dependencia temporal representada por este modelo es: ... Yt2 Yt1 Yt Yt+1 Yt+2 . . . ... at2 at1 at at+1 at+2 ... 39
SARRIKO-ON 4/09
La memoria de este proceso es larga debido a la presencia de estructura autorregresiva. La perturbaci on at inuye directamente en Yt y en Yt1 , pero de forma indirecta, a trav es de la cadena de dependencia temporal de las Y , inuye en todo el futuro del proceso. Para comprobar la estacionariedad, se calculan las ra ces del polinomio autorregresivo: 1 L = 0 L= 1 |L| = 1 || < 1
Para comprobar la invertibilidad, se calculan las ra ces del polinomio medias m oviles: 1L = 0 L= 1 |L| = 1 || < 1
Las caracter sticas del proceso ARM A(1, 1) estacionario son: a) Media: E (Yt ) = E ( Yt1 + at at1 ) = E (Yt ) b) Funci on de autocovarianzas: 0 = E (Yt E (Yt ))2 = E (Yt )2 = E ( Yt1 + at at1 )2 = = 2 E (Yt1 )2 + E (at )2 + 2 E (at1 )2 + 2 E (Yt1 at ) 2 E (Yt1 at1 ) 2 E (at at1 ) = 2 0 + 2 + 2 2 2 2 = 0 = (1 + 2 2 ) 2 1 2 (1 ) E (Yt ) = 0 E (Yt ) = 0
= 2 0 + (1 + 2 2 ) 2
1 = E (Yt E (Yt ))(Yt1 E (Yt1 )) = = E (Yt Yt1 ) = E [( Yt1 + at at1 ) Yt1 ] = = E (Yt1 )2 + E (Yt1 at ) E (Yt1 at1 ) = 0 2 2 = E (Yt E (Yt ))(Yt2 E (Yt2 )) = E (Yt Yt2 ) = = E [( Yt1 + at at1 ) Yt2 ] = = E (Yt1 Yt2 ) + E (Yt2 at ) E (Yt2 at1 ) = 1 Para derivar los resultados siguientes, hay que tener en cuenta que: E (Yt1 at1 ) = E [( Yt2 + at1 at2 ) at1 ] = E (at1 )2 = 2 40
An alisis de Series Temporales: modelos ARIMA La funci on de autocovarianzas de un 0 = k = 1 = k = ARM A(1, 1) es: (1 + 2 2 ) 2 1 2 0 2 k1 k=0 k=0 k>1
SARRIKO-ON 4/09
Como se puede observar, la varianza cuenta con una parte que proviene de la parte de medias m oviles, otra que proviene de la parte autorregresiva y una tercera que es la interacci on entre ambas partes del modelo. La autocovarianza de orden 1, 1 , es la suma de la autocovarianza de orden 1 de la parte AR(1) y de la autocovarianza de orden 1 de la parte M A(1). A partir del retardo 1, la parte medias m oviles del modelo no aparece de forma expl cita en la FACV, dependiendo esta s olo de la estructura autorregresiva. Esta FACV es una funci on innita, que depende de los par ametros AR, , y M A, , hasta k = 1 y luego decrece exponencialmente, siguiendo la estructura marcada por la parte autorregresiva de primer orden. La funci on de autocorrelaci on de un ARM A(1, 1) es: 2 1 = 0 k = k = k1
k=0 k>1
La FAC presenta la misma estructura que la funci on de autocovarianzas, es decir, es una funci on innita cuyo primer coeciente, 1 , depende de los par ametros autorregresivos y de medias m oviles, pero a partir del retardo 2, decrece exponencialmente, siguiendo la estructura dada por la parte autorregresiva de orden 1. En el gr aco 3.5, se observan dos ejemplos de funciones de autocorrelaci on de modelos ARM A(1, 1) para diferentes valores de los par ametros. Aunque las FAC que aqu se muestran son como las de un AR(1), las estructuras posibles para un ARM A(1, 1) son m as variadas, debido a la contribuci on de la parte medias m oviles del modelo en la determinaci on del primer coeciente. Gr aco 3.5: Procesos Autorregresivo de Medias M oviles: ARMA(1,1)
1 1 0,8 0,8
0,6
0,6
0,4
0,4
0,2
0,2
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
Los resultados obtenidos para el modelo ARMA m as sencillo, el ARM A(1, 1), se pueden generalizar para el modelo ARM A(p, q ) y concluir que su funci on de autocorrelaci on ser a innita, 41
SARRIKO-ON 4/09
con los q primeros coecientes, 1 , . . . , q , dependiendo de los par ametros autorregresivos y de medias m oviles. A partir del retardo q , que es el orden de la parte media m ovil del modelo, sus par ametros no aparecen de forma expl cita en la FAC y est a decrece r apidamente hacia cero siguiendo la estructura marcada por la parte autorregresiva de orden p, es decir, como funciones exponenciales si todas las ra ces del polinomio autorregresivo, p (L) , son reales, o en forma onda seno-coseno, si este polinomio tiene ra ces complejas. El modelo ARM A(p, q ) (3.12) se puede generalizar para que su media no sea nula. Basta con a nadir una constante al proceso estacionario: Yt = + 1 Yt1 + . . . + p Ytp + at + 1 at1 + . . . + q atq at RB (0, 2 )
Este modelo tiene las mismas caracter sticas din amicas que el modelo (3.12), la u nica diferencia es que su media no es cero: E (Yt ) = E ( + 1 Yt1 + . . . + p Ytp + at + 1 at1 + . . . + q atq ) E (Yt ) = + 1 E (Yt ) + . . . + p E (Yt ) (1 1 . . . p ) E (Yt ) = E (Yt ) = 1 1 . . . p
42
Recaudacin de pelculas
70000
1100000
60000
1000000
50000
900000
40000
800000
700000
30000
600000
III III III III III III III III III III III III III III I I I I I I I I I I I I I I 8T 0T 2T 4T 6T 7T 6T 9T 5T 7T 5T 1T 8T 3T 3T 9T 5T 6T 7T 4T 5T 6T 0T 2T 7T 8T 1T 20 0 20 0 20 0 20 0 19 9 19 9 19 9 19 9 19 9 20 0 20 0 20 0 20 0 19 9 20 0 20 0 19 9 20 0 20 0 20 0 19 9 19 9 19 9 20 0 20 0 20 0 20 0 20 0 8T
20000
20 00 M 01 20 00 M 04 20 00 M 07 20 00 M 10 20 01 M 01 20 01 M 04 20 01 M 07 20 01 M 10 20 02 M 01 20 02 M 04 20 02 M 07 20 02 M 10 20 03 M 01 20 03 M 04 20 03 M 07 20 03 M 10 20 04 M 01 20 04 M 04 20 04 M 07 20 04 M 10 20 05 M 01 20 05 M 04 20 05 M 07 20 05 M 10 20 06 M 01 20 06 M 04 20 06 M 07 20 06 M 10 20 07 M 01 20 07 M 2 0 04 07 M 07 20 07 M 10 20 08 M 01 20 08 M 04 20 08 M 07
4.1.
No estacionariedad en varianza
Cuando una serie no es estacionaria en varianza, es decir, no se puede sostener el supuesto de que ha sido generada por un proceso con varianza constante en el tiempo, la soluci on es transformar la serie mediante alg un m etodo que estabilice la varianza. El comportamiento habitual en las series econ omicas suele ser que la varianza cambie conforme el nivel de la serie cambia. En estos casos, suponemos que la varianza del proceso la podemos expresar como alguna funci on del nivel: V (Yt ) = k f (t ) siendo k una constante positiva y f una funci on conocida. El objetivo es conseguir alguna funci on que transforme la serie de forma que h(Yt ) tenga varianza constante. Utilizando la 43
SARRIKO-ON 4/09
donde h (t ) es la primer derivada de h(Yt ) evaluada en t . La varianza de la transformaci on h(Yt ) se puede aproximar como sigue: V [h(Yt )] = V h(t ) + (Yt t ) h (t ) = h (t )
2
V (Yt ) = h (t )
k f (t )
Por lo tanto, para que la transformaci on h(Yt ) tenga varianza constante, la funci on h se ha de elegir de tal forma que: 1 h (t ) = f (t ) Si la desviaci on t pica de la serie Yt es proporcional a su nivel, se tiene que: f (t ) = 2 t h(t ) ha de cumplir que h (t ) = 1 t = h(t ) = ln(t )
Por lo tanto, la transformaci on logar tmica proporcionar a una varianza constante. Ahora bien, si esla varianza de la serie Yt la que es proporcional a su nivel: f (t ) = t 1 h(t ) ha de cumplir que h (t ) = t = h(t ) = t
y habr a que tomar la ra z cuadrada de la serie para obtener una varianza constante. En general, para estabilizar la varianza se utilizan las transformaciones Box-Cox: Yt 1 = 0 () Yt = ln(Yt ) =0 donde es el par ametro de transformaci on. Es interesante se nalar que, usualmente, las transformaciones Box-Cox no s olo estabilizan la varianza sino que tambi en mejoran la aproximaci on a la distribuci on normal del proceso Yt .
4.2.
No estacionariedad en media.
Una de las caracter sticas dominantes en las series econ omicas es la tendencia. La tendencia es el movimiento a largo plazo de la serie una vez eliminados los ciclos y el t ermino irregular. En econom a esta tendencia se suele producir debido a la evoluci on de las preferencias, la tecnolog a, de la demograf a, etc. Este comportamiento tendencial puede ser creciente o decreciente, exponencial o aproximadamente lineal. Las series que presentan un comportamiento sistem atico de este tipo (ve ase la gura izquierda del gr aco 4.1) no son estacionarias, no evolucionan en torno a un nivel constante. 44
SARRIKO-ON 4/09
La no estacionariedad en media se puede modelar de diferentes maneras. Por un lado, es posible modelar tendencias, cambios sistem aticos de nivel, mediante modelos globales en los que se especica la tendencia como una funci on del tiempo: Yt = Tt + ut donde Tt = f (t) , es una funci on determinista del tiempo (lineal, cuadr atica, exponencial, ... ) y ut es un proceso estoc astico estacionario con media cero. Por ejemplo, el modelo con tendencia lineal ser a: Yt = a + bt + ut Estos modelos para la tendencia suponen que la serie evoluciona de una forma perfectamente predecible, y se denominan modelos de tendencia determinista. Por otro lado, si un proceso no es estacionario en media tambi en se puede modelar dentro de la clase de modelos ARM A(p, q ). De hecho, un modelo ARM A(p, q ) no es estacionario si las ra ces de su polinomio AR no satisfacen la condici on de estacionariedad, es decir, si alguna de sus ra ces no est a fuera del c rculo unidad: odulo de alguna ra z est a dentro del c rculo unidad: i | |Li | < 1. El comportaa) El m miento de las series generadas por estos procesos es explosivo, crecen o decrecen a gran velocidad hacia innito. Esta no es la evoluci on temporal que se suele observar en series econ omicas por lo que este tipo de no estacionariedad no es de inter es en nuestro campo. b) El m odulo de alguna ra z es exactamente igual a la unidad: i | Li = 1. Este tipo de modelos genera comportamientos no estacionarios que no son explosivos, sino que las realizaciones se comportan de forma similar a lo largo del tiempo, salvo porque cambian de nivel. Este comportamiento s es el que observamos en series econ omicas, por lo que modelaremos series no estacionarias mediante modelos ARM A(p, q ) no estacionarios porque tienen al menos una ra z exactamente igual a la unidad, denominada ra z unitaria.
4.3.
Modelos ARIMA(p,d,q).
Supongamos el siguiente modelo ARM A(p, q ): p (L) Yt = q (L) at donde el polinomio AR se puede factorizar en funci on de sus p ra ces L1 , L2 , . . . , Lp ,
1 1 1 p (L) = (1 L 1 L) (1 L2 L) . . . (1 Lp L)
(4.1)
Supongamos que (p 1) ra ces son estacionarias (con m odulo fuera del c rculo unidad) y una de ellas es unitaria, Li = 1. Entonces, el polinomio AR, se puede reescribir como sigue:
1 1 1 1 p (L) = (1 L L) 1 L) (1 L2 L) . . . (1 Lp L) = p1 (L) (1 (1)
p (L) = p1 (L) (1 L) 45
SARRIKO-ON 4/09
donde el polinomio p1 (L) resulta del producto de los (p 1) polinomios de orden 1 asociados a las ra ces Li con m odulo fuera del c rculo unidad. Sustituyendo en el modelo ARM A(p, q ) (4.1) se tiene que: p1 (L) (1 L) Yt = q (L) at p1 (L) Yt = q (L) at (4.2)
donde el polinomio p1 (L) es estacionario porque todas sus ra ces tienen modulo fuera del c rculo unidad y el polinomio = (1 L) es el que recoge la ra z unitaria. El modelo (4.2) representa el comportamiento de un proceso Yt que no es estacionario porque tiene una ra z unitaria. A un proceso Yt con estas caracter sticas se le denomina proceso integrado de orden 1. En general, el polinomio AR del modelo (4.1) puede contener m as de una ra z unitaria, por ejemplo, d, entonces se puede descomponer como: p (L) = pd (L) (1 L)d y sustituyendo, de nuevo, en el modelo ARM A(p, q ) (4.1), se tiene: pd (L) d Yt = q (L) at donde el polinomio c rculo unidad, y el estacionarias. A un orden d y se denota pd (L) es estacionario porque sus (p d) ra ces tienen modulo fuera del polinomio d = (1 L)d , de orden d, contiene las d ra ces unitarias no proceso Yt con estas caracter sticas se le denomina proceso integrado de por Yt I (d) .
Denici on: Un proceso Yt es integrado de orden d, Yt I (d) , si Yt no es estacionario, pero su diferencia de orden d, d Yt , sigue un proceso ARM A(p d, q ) estacionario e invertible. El orden de integraci on del proceso es el n umero de diferencias que hay que tomar al proceso para conseguir la estacionariedad en media, o lo que es lo mismo, el n umero de ra ces unitarias del proceso. En la pr actica, los procesos que surgen m as habitualmente en el an alisis de las series temporales econ omicas son los I (0) e I (1) , encontr andose los I (2) con mucha menos frecuencia. En general, si una serie Yt es integrada de orden d, se puede representar por el siguiente modelo: p (L) d Yt = + q (L) at (4.3)
donde el polinomio autorregresivo estacionario p (L) y el invertible de medias m oviles q (L) no tienen ra ces comunes. El modelo (4.3) se denomina modelo Autorregresivo Integrado de Medias M oviles de orden (p,d,q) o ARIM A(p, d, q ) , donde p es el orden del polinomio autorregresivo estacionario, d es el orden de integraci on de la serie, es decir, el n umero de diferencias que hay que tomar a la serie para que sea estacionaria, y q es el orden del polinomio de medias m oviles invertible. Para comprender mejor el comportamiento representado por los modelos ARIM A(p, d, q ) vamos a estudiar detalladamente dos de los modelos m as sencillos. 46
SARRIKO-ON 4/09
4.3.1.
El modelo de paseo aleatorio es simplemente un modelo AR(1) con par ametro = 1 : Yt = Yt1 + at Y t = at En el modelo de paseo aleatorio el valor de Y en el momento t es igual a su valor en el momento t 1 m as una perturbaci on aleatoria. El modelo de paseo aleatorio no es estacionario porque la ra z del polinomio AR no tiene m odulo mayor que la unidad: 1L=0 L=1 at RBN (0, 2 ) (4.4)
Pero, sin embargo, como la primera diferencia de la serie, Yt es un ruido blanco, se tiene que Yt I (1) . En la gura 4.2 se muestra el gr aco de una realizaci on simulada de 150 observaciones de un proceso de paseo aleatorio con 2 = 1 . Se puede observar que la evoluci on de la serie no tiene una caracter stica presente en los procesos estacionarios y que se denomina reversi on a la media : la serie se mueve aleatoriamente hacia arriba y hacia abajo, sin mostrar ninguna inclinaci on a dirigirse a ning un punto en particular. Si una perturbaci on aumenta el valor de Yt no hay ninguna tendencia a volver a disminuir otra vez, sino que en principio permanece en un valor alto. Tomando esperanzas condicionadas a la informaci on anterior al modelo (4.4), se obtiene: E [Yt |Yt1 , Yt2 , . . .] = Yt1 lo que implica que el nivel condicionado de la serie en el momento t es aleatorio. Es decir, para este modelo el nivel promedio de la serie va cambiando de forma estoc astica a lo largo del tiempo, por lo que se dice que este modelo tiene tendencia estoc astica.
0,8 0,8 0,6 0,6 0,4 0,4 0,2 0,2 1 1
En lo que se reere a la FAC del modelo (4.4), se puede comprobar que se caracteriza porque sus coecientes decrecen muy lentamente (ve ase la gura derecha del gr aco 4.2).
0 0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,2
-0,2
-0,4
-0,4
-0,6
-0,6
-0,8
-1
8
1
0,8
0,8
4
0,6
0,6
0,4
0,4
0
0,2
0,2
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8
-4
-0,2
-0,4
-0,4
-8
-0,6
-0,6
-0,8
-0,8
-12 1110 1120 1130 1140 1150 1160 1170 1180 1190 1200 1210 1220 1230 1240 1250
-1
-1
47
SARRIKO-ON 4/09
4.3.2.
El modelo de paseo aleatorio con deriva surge de a nadir una constante al modelo de paseo aleatorio. Por lo tanto, al igual que para el modelo de paseo aleatorio, se tiene que Yt I (1) . Yt = Yt1 + + at Yt = + at (4.5)
La u nica diferencia entre los modelos (4.4) y (4.5) es la presencia de la constante . Ahora bien, as como en los modelos estacionarios la inclusi on de una constante solo afecta al nivel promedio constante de la serie, en los modelos no estacionarios su presencia en el modelo tiene efectos m as relevantes. Suponiendo que el modelo (4.5) empieza en alg un momento t0 y, sustituyendo repetidamente, se obtiene:
t
Yt = Y0 + (t t0 ) +
i=t0 +1
ai
Se puede observar que la introducci on de la constante en el modelo implica la inclusi on de una tendencia determinista con pendiente , junto con la tendencia estoc astica. Tomando esperanzas condicionadas a la informaci on pasada en el modelo (4.5), se obtiene: E [Yt |Yt1 , Yt2 , . . .] = Yt1 + es decir, el nivel promedio de la serie se ve afectado por un elemento estoc astico a lo largo del tiempo a trav es de Yt1 as como por un componente determinista a trav es del par ametro . Gr aco 4.3: Tendencias deterministas vs. Tendencias estoc asticas
70
60
20
50
40
10
30
20
Estocstica Determinista
10 1760 1780 1800 1820 1840 1860 1880 1900 1920 1940 1960 1980 2000
Lineal
0 1860 1870 1880 1890 1900 1910 1920 1930 1940 1950 1960 1970 1980 1990
La gura izquierda del gr aco 4.3 muestra una realizaci on de tama no 150 simulada por el modelo de paseo aleatorio con deriva con par ametros = 0, 2 y = 1 . El modelo (4.5) muestra un crecimiento promedio en cada periodo de . Este par ametro de deriva tiene el mismo papel que el par ametro de la pendiente en el modelo determinista lineal. Pero, de la misma manera que el modelo de paseo aleatorio no tiene un nivel promedio al que volver, el modelo de paseo aleatorio con deriva no tiene una tendencia lineal a la que retornar cuando un shock estacionario lo aleja de la misma. El gr aco 4.3 muestra en su gura de la derecha la diferente evoluci on que se puede observar entre tendencias estoc asticas y deterministas. La serie con tendencia determinista oscila aleatoriamente en torno a una tendencia lineal de pendiente constante y, si se separa de ella, tiende a retornar r apidamente, mientras que si la serie con tendencia estoc astica se separa de la l nea de tendencia de pendiente no tiende a volver. 48
5.1.
En los cap tulos 3 y 4 se han analizado las propiedades de los procesos ARIM A(p, d, q ), tanto estacionarios (d = 0) como no estacionarios (d > 0): (L)(1 L)d Yt = + (L)at (5.1)
Si se conocen los par ametros del modelo te orico (5.1) para el proceso Yt , a partir de una realizaci on concreta del ruido blanco, a1 , a2 , . . . aT , y de valores iniciales para Y y a se genera la serie temporal Y1 , Y2 , . . . , YT , que es una realizaci on de tama no T del proceso estoc astico. La estructura es, por lo tanto, (L)(1 L)d Yt = + (L) at at RBN (0, 2 ) Generaci on Realizaci on: Y1 , Y2 , . . . , YT 49
SARRIKO-ON 4/09
A partir de una misma estructura ARIM A(p, d, q ) se pueden obtener innitas realizaciones. Para cada realizaci on, la serie del ruido blanco, a1 , a2 , . . . , aT , ser a diferente y la serie temporal generada, Y1 , Y2 , . . . , YT , tambi en. Ahora bien, todas las series temporales generadas que proceden de una misma estructura conservar an entre s una similitud de comportamiento din amico. En la aplicaci on de la metodolog a Box-Jenkins el punto de partida es el contrario: se conocen los valores de la serie temporal Y1 , Y2 , . . . , YT y se trata de determinar la estructura ARIM A(p, d, q ) que la ha podido generar. Realizaci on: Y1 , Y2 , . . . , YT Inferencia Proceso estoc astico: (L)(1 L)d Yt = + (L) at at RBN (0, 2 )
La construcci on de modelos ARIM A se lleva a cabo de forma iterativa mediante un proceso en el que se pueden distinguir cuatro etapas: on. Utilizando los datos y/o cualquier tipo de informaci on disponible sobre a) Identicaci c omo ha sido generada la serie, se intentar a sugerir una subclase de modelos ARIM A(p, d, q ) que merezca la pena ser investigada. El objetivo es determinar los ordenes p, d, q que parecen apropiados para reproducir las caracter sticas de la serie bajo estudio y si se incluye o no la constante . En esta etapa es posible identicar m as de un modelo candidato a haber podido generar la serie. b) Estimaci on. Usando de forma eciente los datos se realiza inferencia sobre los par ametros condicionada a que el modelo investigado sea apropiado. Dado un determinado proceso propuesto, se trata de cuanticar los par ametros del mismo, 2 1 , . . . q , 1 , . . . p , y, en su caso, . c) Validaci on. Se realizan contrastes de diagn ostico para comprobar si el modelo se ajusta a los datos, o, si no es as , revelar las posibles discrepancias del modelo propuesto para poder mejorarlo. d) Predicci on. Obtener pron osticos en t erminos probabil sticos de los valores futuros de la variable. En esta etapa se tratar a tambi en de evaluar la capacidad predictiva del modelo. Esta metodolog a se basa, fundamentalmente, en dos principios: 50
SARRIKO-ON 4/09
Selecci on de un modelo en forma iterativa. En cada etapa se plantea la posibilidad de rehacer las etapas previas. Identicaci on Estimaci on Validaci on SI Predicci on SI Modelo Principio de parametrizaci on escueta, tambi en denominado parsimonia. Se trata de proponer un modelo capaz de representar la serie con el m nimo de par ametros posibles y u nicamente acudir a una ampliaci on del mismo en caso de que sea estrictamente necesario para describir el comportamiento de la serie. NO NO
5.2.
Identicaci on
El objetivo de esta etapa de la modelizaci on es seleccionar el modelo ARIM A(p, d, q ) apropiado para la serie, es decir, que reproduce las caracter sticas de la serie. La identicaci on del modelo se lleva a cabo en dos fases: A. An alisis de estacionariedad, en el que se determinan las transformaciones que son necesarias aplicar para obtener una serie estacionaria. Incluye, a su vez, dos apartados: Estacionariedad en varianza: transformaciones estabilizadoras de varianza. Estacionariedad en media: n umero de diferencias d que hay que tomar para lograr que la serie sea estacionaria en media. B. Elecci on de los ordenes p y q . Una vez obtenida la serie estacionaria, el objetivo es determinar el proceso estacionario ARM A(p, q ) que la haya generado. Los instrumentos que se van a utilizar en estas dos fases de la identicaci on del modelo son fundamentalmente los siguientes: Gr aco y correlogramas muestrales de la serie original. 51
SARRIKO-ON 4/09
Gr aco y correlogramas muestrales de determinadas transformaciones de la serie: logaritmos, diferencias,... Contrastes de ra ces unitarias.
5.2.1.
An alisis de estacionariedad
Estacionariedad en varianza. Una serie ser a estacionaria en varianza cuando pueda mantenerse el supuesto de que existe una u nica varianza para toda la serie temporal, es decir, cuando la variabilidad de la serie en torno a su media se mantenga constante a lo largo del tiempo. Si la serie no es estacionaria en varianza, se utilizan las transformaciones estabilizadoras de varianza, es decir, las transformaciones Box-Cox, Yt 1 = 0 () Yt = ln Yt =0 Las transformaciones Box-Cox incluye una familia innita de funciones: ra z cuadrada, inversa, etc. Como las series econ omicas suelen ser positivas y sin valores cero, la transformaci on m as utilizada en la pr actica econ omica es la logar tmica. Los instrumentos que se utilizan para analizar la estacionariedad en varianza de una serie son el gr aco de la serie original y de las transformaciones correspondientes. Ejemplo 6.1. Pieles de Lince Gr aco 5.1: Pieles de lince (1821-1930)
7000 9 6000
5000 7 4000
Ln(lince)
1820 1840 1860 1880 1900 1920
Lince
3000 5 2000
1000
En el gr aco 5.1 se presenta la serie Pieles de lince capturadas de 1821 a 1930. En la gura izquierda del gr aco se puede observar que la serie en niveles presenta un comportamiento c clico en el que la amplitud de los ciclos es variable en el tiempo. Por lo tanto, no parece adecuado suponer que la serie es estacionaria en varianza. Tomando logaritmos a la serie (la transformaci on Box-Cox m as utilizada para las series econ omicas) se observa que la amplitud de estos ciclos se ha homogeneizado y que la variabilidad de la serie es mucho m as estable en el tiempo (la gura derecha del gr aco). Se puede concluir que la serie estacionaria en varianza es Zt = Ln(lince) . 52
SARRIKO-ON 4/09
En el gr aco 5.2 se muestra la serie de Producci on de tabaco desde 1872 a 1984 tanto en niveles (gura izquierda) como en logaritmos (gura derecha). Gr aco 5.2: Producci on de tabaco (1872-1984)
2500 8 7.5 2000
Ln(Produccin)
1880 1900 1920 1940 1960 1980
1500
Produccin
6.5
1000
500 5.5
Pregunta: Cu al es la serie estacionaria en varianza?. Razona tu respuesta. Estacionariedad en media. En este apartado, se ha de identicar si la serie es estacionaria en media, es decir, si oscila en torno a un nivel constante o no. Para tomar esta decisi on nos basaremos en las caracter sticas que diferencian las series estacionarias de las no estacionarias. Caracter sticas de una serie estacionaria : Una serie es estacionaria en media cuando se puede mantener el supuesto de que existe una u nica media para toda la serie temporal, es decir, cuando uct ua alrededor de una media constante. La funci on de autocorrelaci on te orica de un proceso estacionario en media decae r apidamente, exponencialmente. Caracter sticas de una serie no estacionaria : La serie no es estacionaria en media cuando presenta tendencia o varios tramos con medias diferentes. En general, un proceso con alguna ra z unitaria presenta una funci on de autocorrelaci on muestral con un decaimiento muy lento, no siendo necesario que se mantenga pr oximo a la unidad. Como se ha visto en el cap tulo 4, si la serie no es estacionaria en media se puede lograr la estacionariedad transform andola tomando diferencias. As , si la serie no es estacionaria en media, se tomar an d sucesivas diferencias de orden 1 sobre la serie hasta obtener una serie estacionaria: Zt = (1 L)d Yt 53
SARRIKO-ON 4/09
Ahora bien, el problema es c omo identicar el n umero de diferencias exacto que es preciso tomar a la serie para que sea estacionaria ya que pueden aparecer los siguientes problemas: Ra z autorregresiva pr oxima a la unidad. Consideremos el siguiente modelo AR(1) Yt = 0, 95 Yt1 + at 1 0, 95L = 0 L= 1 = 1, 05 > 1 0, 95
que es un proceso estacionario. Sin embargo, en la pr actica puede resultar muy dif cil distinguir una realizaci on de este proceso de una serie generada por un paseo aleatorio, Yt = Yt1 + at , de ra z unitaria porque est a muy pr oximo a el. Sobrediferenciaci on: se dice que la serie est a sobrediferenciada si se toman m as diferencias de las necesarias, por ejemplo, si se elige un orden de integraci on d cuando la serie d1 Yt ya es estacionaria. En este punto conviene recordar que si se diferencia un proceso estacionario sigue siendo estacionario. Por lo tanto, en principio, el hecho de que d Yt sea estacionario, no signica necesariamente que d1 Yt no lo sea, por lo que hay tener cuidado ya que el objetivo en esta fase de la modelizaci on ARIM A es determinar el menor n umero de diferencias d capaz de convertir a una serie en estacionaria. Sabemos que para las series econ omicas los valores de d m as habituales son d = 0, 1, 2 y para decidir cu al es el m as apropiado para la serie bajo estudio utilizaremos los siguientes instrumentos: aco de la serie original y las transformaciones correspondientes, para observar si se a) Gr cumple o no la condici on de estacionariedad de oscilar en torno a un nivel constante. b) Correlograma estimado de la serie original y de las transformaciones correspondientes, para comprobar si decrece r apidamente hacia cero o no. c) Contrastes de ra ces unitarias. Los contrastes de ra ces unitarias proporcionan unos contrastes estad sticos que permiten, a partir del conjunto de informaci on, hacer inferencia sobre la existencia o no de una ra z unitaria en una serie, es decir, sobre la no estacionariedad de la serie. Si se rechaza la hip otesis nula de existencia de ra z unitaria en d1 Yt , no se diferenciar a m as la serie. En caso contrario, si no se rechaza la hip otesis nula se tomar a una diferencia m as de orden 1. A continuaci on, se desarrollan brevemente, los contrastes de ra ces unitarias m as utilizados en la pr actica del an alisis de series temporales econ omicas y que, a la vez, fueron los pioneros en este campo. Contraste de Dickey-Fuller. Supongamos el siguiente proceso AR(1): Yt = Yt1 + at , at RBN (0, 2 ) 54 (5.2)
SARRIKO-ON 4/09
que es estacionario si || < 1. Si, por el contrario, = 1 el proceso Yt no es estacionario porque tiene una ra z unitaria, de hecho ser a un modelo de paseo aleatorio: Yt = Yt1 + at 1L=0 L=1 Yt I (1)
Si se desea contrastar alguna hip otesis nula sobre el valor del par ametro en el modelo (5.2), por ejemplo, H0 : = 0 , el procedimiento habitual es estimar la regresi on de Yt sobre Yt1 y despu es utilizar el estad stico t est andar para contrastar la hip otesis nula. Como es bien sabido, si || < 1, , es el modelo AR(1) es estacionario y el estimador de por M nimos Cuadrados Ordinarios, igual al estimador M aximo Veros mil y sigue asint oticamente una distribuci on normal. Adem as, el estad stico t tiene la siguiente distribuci on asint otica bajo la hip otesis nula: t = 0 V N (0, 1)
Para muestras peque nas este estad stico se distribuye aproximadamente como un t de Student de (T 1) grados de libertad. Por lo tanto, se podr a pensar en contrastar la hip otesis de existencia de ra z unitaria en la serie Yt (no estacionariedad) contrastando la hip otesis nula H0 : = 1 en el modelo (5.2). El problema surge porque no se sabe a priori si el modelo es estacionario o no y cuando = 1 el modelo AR(1) no es estacionario y los resultados anteriores no se mantienen. Se puede demostrar est que el estimador a sesgado hacia abajo y que el estad stico t bajo la hip otesis nula de ra z unitaria no sigue una distribuci on t de Student ni en el l mite cuando el tama no muestral tiende a innito. Adem as si se utilizan los valores cr ticos de esta distribuci on se tiende a rechazar la H0 m as veces de las deseadas. El modelo (5.2) se puede escribir como sigue restando Yt1 en ambos lados, Yt Yt1 = Yt1 Yt1 + at Yt = Yt1 + at con o bien = 1 (5.3)
Ahora, contrastar la hip otesis nula de ra z unitaria (paseo aleatorio) equivale a plantear el siguiente contraste de hip otesis en el modelo (5.3): H0 : = 0 Ha : < 0 La hip otesis alternativa de estacionariedad se plantea u nicamente en t erminos de negativo, porque un valor positivo de supondr a un modelo no estacionario de comportamiento explosivo. El modelo (5.3) es un modelo de regresi on y el estad stico habitual para realizar este tipo de contraste es: t = 0 ) ( V 55 (5.4)
yt1 yt =
t=2 T 2 yt 1 t=2
) = ( V
2
T 2 yt 1 t=2
(5.5)
Al estad stico t se le denomina estad stico de Dickey-Fuller. Este estad stico t no sigue ninguna distribuci on conocida bajo la hip otesis nula de no estacionariedad por lo que DickeyFuller calcularon los percentiles de este estad stico bajo la H0 proporcionando las tablas con los niveles cr ticos correctos para el estad stico en funci on del tama no muestral (T ) y el nivel de signicaci on () (las tablas de estos valores cr ticos se encuentran en el ap endice B.). Se rechaza H0 , es decir, la existencia de ra z unitaria a un nivel de signicaci on si el valor muestral del estad stico t es menor que el valor cr tico de las tablas de Dickey-Fuller (DF ): t < DF Hasta el momento se ha explicado como contrastar la hip otesis nula de ra z unitaria (paseo aleatorio) frente a la alternativa de un proceso estacionario AR(1) de media cero. Para las series econ omicas, ser a de inter es considerar hip otesis alternativas m as generales que puedan incluir estacionariedad alrededor de una constante o de una tendencia lineal. Si el modelo AR(1) incluye una constante: Yt = c + Yt1 + at , at RBN (0, 2 ) (5.6)
el contraste de existencia de ra z unitaria se realiza de forma similar. Restando Yt1 en ambos lados del proceso se obtiene: Yt = c + Yt1 + at = 1 El contraste de la hip otesis nula de ra z unitaria se plantea en este modelo (5.7) como sigue: H0 : = 0 Ha : < 0 y el estad stico de contraste es: tc = ) ( V (5.7)
es el estimador MCO de y V ) el de su varianza. Como anteriormente, Dickey-Fuller ( donde construyeron las tablas que proporcionan los niveles cr ticos correctos para el estad stico tc en funci on del tama no muestral, T , y el nivel de signicaci on, . 56
An alisis de Series Temporales: modelos ARIMA Si el modelo AR(1) incluye una tendencia lineal: Yt = c + t + Yt1 + at , el modelo que se estima por MCO es: Yt = c + t + Yt1 + at at RBN (0, 2 )
SARRIKO-ON 4/09
(5.8)
y se utiliza el estad stico t que denotaremos por t para contrastar la hip otesis nula de ra z unitaria H0 : = 0 frente Ha : < 0.
Contraste de Dickey-Fuller aumentado. Los contrastes anteriores de Dickey-Fuller se han derivado partiendo del supuesto restrictivo de que la serie sigue un proceso AR(1). Pero la serie puede seguir procesos m as generales ARM A(p, q ). Como es bien conocido, todo proceso ARM A(p, q ) se puede aproximar hasta el grado de bondad necesario mediante un AR(p): Yt = 1 Yt1 + 2 Yt2 + . . . + p Ytp + at Este modelo se puede reparametrizar como sigue: Yt = Yt1 + 1 Yt1 + + p1 Ytp+1 + at donde
p i
at RBN (0, 2 )
(5.9)
=
i=1
i 1 y i =
j =1
pi+j
Dado que un proceso AR(p) tiene una ra z unitaria cuando p otesis i=1 i = 1, contrastar la hip nula de existencia de ra z unitaria es equivalente a contrastar la H0 : = 0 en la regresi on (5.9). Este contraste de ra z unitaria se denomina Dickey-Fuller Aumentado (ADF) y se basa en la estimaci on MCO del par ametro en el modelo (5.9) y en el correspondiente estad stico t. Este estad stico tiene la misma distribuci on que para el caso del modelo AR(1) y, por lo tanto, podemos utilizar los mismos valores cr ticos tabulados por Dickey-Fuller. El modelo (5.9) se puede tambi en generalizar introduciendo una constante y/o una tendencia lineal: Yt = + Yt1 + 1 Yt1 + + p1 Ytp+1 + at Yt = + t + Yt1 + 1 Yt1 + + p1 Ytp+1 + at procedi endose a la realizaci on del contraste de la hip otesis nula de ra z unitaria por un procedimiento similar al desarrollado para el modelo AR(1). 57
SARRIKO-ON 4/09
0.5
D Ln(Lince)
1820 1840 1860 1880 1900 1920
Ln(lince)
-0.5
-1
-1.5 4 -2
-2.5 1820
1840
1860
1880
1900
1920
Cuadro 5.1: Contrates de ra ces unitarias Contrastes aumentados de Dickey-Fuller, orden 4, para Ln(lince): tama~ no muestral 108 hip otesis nula de ra z unitaria: a = 1 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,019 valor estimado de (a - 1): -0,451665 Estad stico de contraste: tau c(1) = -5,13165 valor p asint otico 1,089e-005
Ejemplo 6.2. Pieles de lince. Analicemos la estacionariedad en media de la serie que es estacionaria en varianza, Zt = ln(Yt ) = Ln(Lince). En el gr aco 5.3 se representan la serie en logaritmos (Ln(Lince)) y su primera diferencia (D Ln(Lince)). Se puede observar que la serie Zt oscila c clicamente en torno a un nivel promedio m as o menos constante y al diferenciarla no cambia su comportamiento salvo que pasa a oscilar en torno a un nivel pr oximo a cero. Se puede concluir, por lo tanto, que Zt es ya estacionaria en media y no es preciso realizar m as transformaciones. Analizando los correlogramas de Zt y su primera diferencia recogidos en el gr aco 5.4 se obtiene la misma conclusi on ya que el correlagrama de Zt decrece r apidamente hacia cero en forma de onda seno-coseno amortiguada. El tomar una diferencia a la serie no cambia el comportamiento del correlograma, como era de esperar, ya que si diferenciamos un proceso estacionario sigue siendo estacionario. Para contrastar la existencia de ra z unitaria en la serie Zt = Ln(Lince) se lleva a cabo el contraste ADF aumentado. Los resultados del cuadro 5.1 muestran que el valor del estad stico ADF, tc = -5,13, es menor que el valor cr tico DF0,05 = 2, 89 (ve ase ap endice B). Por lo tanto, se rechaza la hip otesis nula de existencia de ra z unitaria a un nivel de signicaci on del 5 % y la transformaci on estacionaria en media y varianza de la serie Pieles de Lince es Zt = ln(Yt ) = Ln(Lince). 58
SARRIKO-ON 4/09
FAC de D Ln(Lince) FACP de Ln(lince) 1 1 0.5 0.5 0 0 -0.5 -0.5 -1 -1 0 0 5 5 10 10 15 15 20 20 retardo retardo 25 25 30 30 35 35 +- 1,96/T^0,5 1,96/T^0,5 +-
a) Gr aco 0 5.5: muestra en la gura de la izquierda la serie Ln(Producci on) y en la gura de la derecha la serie D Ln(Producci on) = ln(P roduccion). -0.5 b) Gr aco -1 5.6: muestra en la gura superior el correlograma de la serie Ln(Producci on) y en 0 10 15 20 25 30 35 la gura inferior el5 correlograma de la serie D Ln(Producci o n) = ln( P roduccion ). retardo c) Cuadros 5.2 y 5.3 muestran los resultados de los contrastes de ra ces unitarias ADF para las series Ln(Producci on) y D Ln(Producci on) respectivamente. Gr aco 5.5: Gr acos de Ln(Producci on) y su primera diferencia.
8 1.2 1 7.5 0.8
0.6
D Ln(Produccin)
1880 1900 1920 1940 1960 1980
Ln(Produccin)
0.4
6.5
0.2
SARRIKO-ON 4/09
Cuadro 5.2: Contrates de ra ces unitarias Contrastes aumentados de Dickey-Fuller, orden 4, para Ln(Producci on): tama~ no muestral 109 hip otesis nula de ra z unitaria: a = 1 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,029 valor estimado de (a - 1): -0,0776783 Estad stico de contraste: tau c(1) = -2,61077 valor p asint otico 0,0907 contraste con constante y tendencia modelo: (1 - L)y = b0 + b1*t + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,020 valor estimado de (a - 1): -0,127884 Estad stico de contraste: tau ct(1) = -1,46933 valor p asint otico 0,8402
Cuadro 5.3: Contrates de ra ces unitarias Contrastes aumentados de Dickey-Fuller, orden 4, para D Ln(Producci on): tama~ no muestral 108 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,019 valor estimado de (a - 1): -2,37034 Estad stico de contraste: tau nc(1) = -6,5554 valor p asint otico 2,213e-010 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,020 valor estimado de (a - 1): -2,69183 Estad stico de contraste: tau c(1) = -7,06954 valor p asint otico 2,145e-010
60
SARRIKO-ON 4/09
FAC de D Ln(Produccin) FACP de Ln(produccin) 1 1 0.5 0.5 0 0 0.5 0.5 1 1 0 0 5 5 10 10 15 15 20 20 retardo retardo 25 25 30 30 35 35 + 1,96/T^0,5 + 1,96/T^0,5
5.2.2.
Una vez determinado el orden de diferenciaci on d, se tiene la transformaci on estacionaria de la serie Zt = (10 L)d Yt que puede representarse mediante un proceso ARM A(p, q ) estacionario. En esta fase se trata de identicar los ordenes p y q del proceso que puede reproducir las 0.5 caracter sticas de la serie estacionaria y de analizar la conveniencia de la incorporaci on del 1 par ametro asociado a la media, .
0 5 10 15 20 retardo 25 30 35
A. Identicaci on de los ordenes p, q. Las caracter sticas din amicas del proceso estacionario est an recogidas en la funci on de autocorrelaci on, FAC, por lo que esta ser a el instrumento b asico para identicar los ordenes p y q del modelo ARMA adecuado para representar las caracter sticas de la serie estacionaria Zt . Los coecientes de autocorrelaci on muestral de Zt son:
T
)(Ztk Z ) (Zt Z k =
t=k+1 T
k = 1, 2, . . . , T /3 )2 (Zt Z
(5.10)
t=1
donde T = T d es la longitud de la serie estacionaria Zt . Para identicar los ordenes p y q , se comparar an las funciones de autocorrelaci on muestrales con las FAC te oricas de los modelos ARMA cuyas caracter sticas conocemos: 61
SARRIKO-ON 4/09
An alisis de Series Temporales: modelos ARIMA FAC M A(q ) AR(p) ARM A(p, q ) Se anula para j > q Decrecimiento r apido No se anula Decrecimiento r apido No se anula
Si el correlograma muestral de la serie Zt presenta un corte a partir de un retardo nito j , la identicaci on del proceso adecuado para la misma es sencilla, ya que se corresponder a con la FAC te orica de un M A(j ). Pero si el correlograma muestral no presenta ning un corte sino que parece decrecer r apidamente siguiendo una estructura exponencial o de onda seno-coseno, la identicaci on no es tan clara, ya que bas andose u nicamente en la FAC podr a corresponder a un modelo te orico AR o ARM A de cualquier orden. Para ayudarnos en la identicaci on de modelos ARM A(p, q ) en estos casos acudimos a otro instrumento complementario, la funci on de autocorrelaci on parcial. El coeciente de autocorrelaci on parcial de orden k , denotado por pk , mide el grado de asociaci on lineal existente entre entre las variables Yt e Ytk una vez ajustado el efecto lineal de todas las variables intermedias, es decir: pk = Yt Ytk .Yt1 ,Yt2 ,...,Ytk+1 Por lo tanto, el coeciente de autocorrelaci on parcial pk es el coeciente de la siguiente regresi on lineal: Yt = + p1 Yt1 + p2 Yt2 + . . . + pk Ytk + et Las propiedades de la funci on de autocorrelaci on parcial (FACP), pk , k = 0, 1, 2, 3, . . . , son equivalentes a las de la FAC: p0 = 1 y p1 = 1 Los coecientes pk no dependen de unidades y son menores que la unidad en valor absoluto. La FACP es una funci on sim etrica. La FACP de un proceso estoc astico estacionario decrece r apidamente hacia cero cuando k . La funci on de autocorrelaci on parcial se puede estimar a partir de los datos de la serie como una funci on de los coecientes de autocorrelaci on simples estimados, k . La estructura de la funci on de autocorrelaci on parcial para un modelo estacionario ARM A(p, q ) es como sigue: 62
SARRIKO-ON 4/09
Si un proceso sigue un modelo AR(p), Yt depende directamente de su pasado hasta el retardo p de forma que las variables aleatorias separadas un periodo, dos, y hasta p periodos mantienen una relaci on lineal directa aunque se elimine el efecto de las variables intermedias, por lo que pk = 0 . Sin embargo, para variables separadas m as de p periodos el coeciente de autocorrelaci on parcial es cero porque no existe relaci on lineal directa entre ellas: existe relaci on lineal, k = 0 , pero es indirecta a trav es de las variables intermedias por lo que, una vez controlado el efecto de estas, la correlaci on entre Yt e Ytk es nula y pk = 0 . Modelo M A(q ): Yt = at + 1 at1 + 2 at2 + 3 at3 + . . . + q atq La FACP de un modelo de medias m oviles nito es innita y decrece r apidamente hacia cero, de forma exponencial cuando las ra ces del polinomio de medias m oviles son reales y en forma de onda seno-coseno amortiguada si las ra ces del citado polinomio son complejas. Esta estructura es l ogica dado que la representaci on AR de un modelo M A(q ) es innita. Modelo ARM A(p, q ): Yt = at + 1 Yt1 + 2 Yt2 + . . . + p Ytp + at + 1 at1 + 2 at2 + . . . + q atq La FACP de un modelo ARM A(p, q ) es innita y los p primeros coecientes de la FACP dependen de los par ametros autorregresivos y de los de medias m oviles y, a partir del retardo p + 1 , depende u nicamente de la estructura de la parte de medias m oviles, de forma que, decrece r apidamente hacia cero, de forma exponencial cuando las ra ces del polinomio de medias m oviles son reales y en forma de onda seno-coseno amortiguada si las ra ces del citado polinomio son complejas. Comparando la estructura de las funciones de autocorrelaci on simple y parcial estimadas con las caracter sticas b asicas de las funciones de autocorrelaci on te oricas de la tabla siguiente, se puede identicar el / los procesos que podr an haber generado la serie bajo estudio. FAC M A(q ) AR(p) ARM A(p, q ) Se anula para j > q Decrecimiento r apido No se anula Decrecimiento r apido No se anula 63 FACP Decrecimiento r apido No se anula Se anula para j > p Decrecimiento r apido No se anula
SARRIKO-ON 4/09
Ahora bien, para la identicaci on del modelo apropiado s olo se cuenta con las estimaciones de la FAC y de la FACP a partir de los datos de la serie Yt . Los estimadores de los coecientes de autocorrelaci on k y p k son variables aleatorias que tienen una distribuci on de probabilidad y tomar an diferentes valores para diferentes realizaciones de Yt . Por lo tanto, para identicar el orden del proceso ARM A(p, q ) adecuado para la serie, es preciso determinar la estructura de las FAC y FACP estimadas realizando contrastes sobre la signicaci on individual de los coecientes de autocorrelaci on simple y parcial estimados. El estimador de los coecientes de autocorrelaci on k dado por (5.10) es una variable aleatoria que se distribuye asint oticamente como sigue bajo el supuesto de que Zt es gaussiano y k > 0,
a
k N (k , V ( k ))
con
V ( k )
1 T
Se desea realizar el siguiente contraste de hip otesis para k = 1, 2, . . . , T /3 H0 : k = 0 Ha : k = 0 Bajo la hip otesis nula el estad stico de contraste se distribuye asint oticamente como k V ( k )
a
N (0, 1)
2 T
2 Por lo tanto, son las bandas de conanza que delimitan la zona de signicatividad del T coeciente k . En lo que se reere a la funci on de autocorrelaci on parcial, los coecientes de autocorrelaci on parcial muestrales p k , con k > p, se distribuyen asint oticamente como sigue para procesos AR(p):
a
p k N (0, V ( pk ))
con
V ( pk )
1 T
En la pr actica, para obtener las bandas de conanza para p k se aplica esta distribuci on independientemente del tipo de proceso que haya generado la serie. Se desea realizar el siguiente contraste de hip otesis para k = 1, 2, . . . , T /3 H0 : pk = 0 Ha : pk = 0 64
SARRIKO-ON 4/09
Bajo la hip otesis nula el estad stico de contraste se distribuye asint oticamente como p k V ( pk )
a
N (0, 1)
Se rechaza la H0 de no signicatividad del coeciente de autocorrelaci on a un nivel de signicaci on del 5 % si p k V ( pk ) N0,025 = 1, 96 o an alogamente, |p k | 1,96 ( pk ) 2 T
2 Por lo tanto, son las bandas que delimitan la zona de signicatividad del coeciente pk . T Cuando se procede a la identicaci on de un modelo ARM A(p, q ) hay que tener en cuenta que identicar el modelo a trav es de las funciones de autocorrelaci on simple y parcial estimadas no es una tarea sencilla. En esta primera etapa no se trata tanto de identicar el modelo correcto, sino de acotar un subconjunto de modelos ARIMA que han podido generar la serie. Posteriormente, en la fase de estimaci on y validaci on, dependiendo de los resultados, se vuelve a plantear la identicaci on del proceso. A la hora de interpretar las funciones de autocorrelaci on estimadas no se debe dar demasiada importancia a cada detalle que pueda aparecer en los datos. En general, se trata de buscar los modelos m as sencillos que reproduzcan las caracter sticas de la serie. Es preciso tener en cuenta que, por un lado, hay cierta probabilidad de obtener alg un coeciente signicativo aunque los datos fueran generados por un ruido blanco y, por otro lado, que al determinar qu e retardos pueden ser signicativamente distintos de cero, tambi en hay que considerar la interpretaci on que se les pueda dar. Adem as, los coecientes de autocorrelaci on muestral est an correlacionados entre s , por lo que en el correlograma muestral pueden aparecer ciertas ondulaciones que no se corresponden con el correlograma te orico. La tarea de identicaci on ser a m as f acil cuanto mayor sea el tama no de muestra. Ejemplo 6.3. Pieles de Lince. El gr aco 5.7 muestra las funciones de autocorrelaci on simple y parcial estimadas para la serie estacionaria Zt = ln(Yt ) = Ln(lince). La FAC estimada muestra una estructura innita decreciendo en forma de onda seno-coseno amortiguada que sugiere un modelo AR(p) o ARM A(p, q ) con parte autorregresiva de orden mayor o igual que 2. El an alisis de la FACP muestra, seg un el resultado de los contrastes de signicaci on individual, que los tres primeros coecientes son signicativamente distintos de cero y el resto no. Seg un esta interpretaci on, la FACP estar a truncada en el retardo 3 y el modelo adecuado para haber generado la serie ser a un AR(3). Ahora bien, estudiando el comportamiento general de la FACP, tambi en se puede interpretar que tiene una estructura innita que 2 decrece r apidamente a partir del retardo con forma c clica. En este caso el modelo m as sencillo que recoger a esta estructura ser a un ARM A(2, 1). Por lo tanto, se podr an identicar dos modelos adecuados, en principio, para la serie estacionaria: a) Zt AR(3) 65 b) Zt ARM A(2, 1)
SARRIKO-ON 4/09
66
SARRIKO-ON 4/09
La gura 5.8 muestra las funciones de autocorrelaci on simple y parcial estimadas para la transformaci on estacionaria de la serie Producci on de Tabaco, Zt = ln(Yt ) = D Ln(Produccion). Pregunta: Qu e modelo o modelos ARM A(p, q ) propones para la serie estacionaria? B. Inclusi on del t ermino independiente Recordemos que la media de un proceso ARM A(p, q ) estacionario est a directamente relacionada con la constante . Si esta constante es cero, entonces la media del proceso es cero. Para decidir si se incluye un t ermino independiente no nulo en el modelo, se contrastar a si la media de la serie estacionaria es o no cero, H0 : E (Zt ) = 0 Ha : E (Zt ) = 0, El estad stico de contraste es: t = H0 Z t(T 1) Z
C0 (1 + 2 1 + 2 2 + . . . + 2 n ) T
(5.11)
)2 /(T 1) es la varianza muestral de la serie estacionaria y ( donde C0 = (Zt Z 1 , 2 , . . . , n ) representan las n primeras autocorrelaciones muestrales signicativas de Zt . En ocasiones, para calcular esta varianza, se aplica la siguiente aproximaci on:
2 Z =
C0 T
Se rechazar a la H0 : E (zt ) = 0 a un nivel de signicaci on y, por lo tanto, se incluir a el par ametro en el modelo si: t > t/2 (T 1)
Ejemplo 6.4. Pieles de Lince. La gura de la izquierda del gr aco 5.3 muestra la serie estacionaria Ln(lince) que parece oscilar en torno a una media diferente de cero. La siguiente tabla muestra los estad sticos descriptivos principales de la serie estacionaria Zt = ln(Yt ) que se van a utilizar para contrastar si la media es o no nula. 67
SARRIKO-ON 4/09
Estad sticos principales, usando las observaciones 1821 - 1933 para la variable Ln(lince) (113 observaciones v alidas) Media 6, 68671 Desv. T p. 1, 27356 Mediana 6, 66441 C.V. 0, 190462 M nimo 3, 66356 Asimetr a 0, 374282 M aximo 8, 85238 Exc. de curtosis 0, 668913
La distribuci on del estad stico de contraste bajo la hip otesis nula H0 : E (Zt ) = 0 es: t = Z t(180 1) Z
= 6, 66 y: Seg un los estad sticos principales, Z Z = por lo tanto, (1, 276)2 (1 + 2 0, 78 + 2 0, 35 + . . . 2 0, 192) = 0,0095 180 t =
6, 66 = 701, 05 > t0,025 (180 1) 2 0, 0095 Se rechaza la H0 : E (Zt ) = 0 para un del 5 % y se incluye un t ermino constante en el modelo. Resumiendo, se proponen los dos modelos siguientes para la serie estacionaria: (1) (2) AR(3) : Zt = + 1 Zt1 + 2 Zt2 + 3 Zt3 + at Zt = + 1 Zt1 + 2 Zt2 + at + at1
ARM A(2, 1) :
Ejercicio 6.4. Serie Producci on de tabaco. En la gura derecha del gr aco 5.5 se presenta la transformaci on estacionaria de la serie Producci on de Tabaco, Zt = ln(Yt ) que parece oscilar en torno a cero y la siguiente tabla muestra los principales estad sticos descriptivos de la misma. Estad sticos principales, usando las observaciones 1871 - 1984 para la variable D Ln(Produccion) (113 observaciones v alidas) Media 0, 0147324 Desv. T p. 0, 203842 Preguntas: Es preciso incluir un t ermino independiente en la especicaci on del modelo? Escribe el/los modelos ARM A(p, q ) que podr an haber generado la serie. 68 Mediana 0, 0199342 C.V. 13, 8363 M nimo 0, 565523 Asimetr a 0, 711632 M aximo 1, 03192 Exc. de curtosis 4, 94746
SARRIKO-ON 4/09
5.3.
Estimaci on
Una vez identicados el/los procesos estoc asticos que han podido generar la serie temporal Yt , la siguiente etapa consiste en estimar los par ametros desconocidos de dichos modelos: = (, 1 , . . . , p , 1 , . . . , q ) y
2 a
Estos par ametros se pueden estimar de forma consistente por M nimos Cuadrados o M axima Verosimilitud. Ambos m etodos de estimaci on se basan en el c alculo de las innovaciones, at , a partir de los valores de la serie estacionaria. El m etodo de M nimos Cuadrados minimiza la suma de cuadrados: M in a2 (5.12) t
t
La funci on de verosimilitud se puede derivar a partir de la funci on de densidad conjunta de las innovaciones, a1 , a2 , . . . , aT , que, bajo el supuesto de normalidad, es como sigue: f (a1 , a2 , . . . , aT )
T T
exp
t=1
a2 t 2 2
(5.13)
Para resolver el problema de estimaci on, las ecuaciones (5.12) y (5.13) se han de expresar en funci on del conjunto de informaci on y de los par ametros desconocidos del modelo. Para un modelo ARM A(p, q ), la innovaci on se puede escribir como:
p q
at = Zt
i=1
i Zti
i=1
i ati
(5.14)
Por lo tanto, para calcular las innovaciones a partir de un conjunto de informaci on y de un vector de par ametros desconocidos, se necesitan un conjunto de valores iniciales Z0 , Z1 , . . . , Zp1 y a0 , a1 , . . . , aq1 . En la pr actica, el procedimiento seguido es aproximar las innovaciones imponiendo una serie de condiciones sobre los valores iniciales, con lo que se obtienen los denominados estimadores de M nimos Cuadrados Condicionados y M aximo veros miles Condicionados. La condici on que se impone habitualmente sobre los valores iniciales es que las p primeras observaciones de Zt son los valores iniciales y las innovaciones previas son cero. En este caso, se calculan las innovaciones seg un la ecuaci on (5.14) de t = p + 1 en adelante. Los estimadores M aximo veros miles condicionados a las p primeras observaciones son iguales a los estimadores M nimos Cuadrados condicionados. Existen m etodos para obtener estimadores M aximos veros miles no condicionados, basados en la maximizaci on de la funci on de verosimilitud exacta que se obtiene como una combinaci on de la funci on de verosimilitud condicionada y la funci on de densidad no condicionada para los valores iniciales.
69
En las siguientes tablas se encuentran los resultados de la estimaci on de los dos modelos propuestos para la transformaci on estacionaria Zt = ln(Yt ) = Ln(lince). Modelo 1: estimaciones ARMA utilizando las 113 observaciones 18211933 Variable dependiente: Ln(lince) Coeciente Desv. t pica estad stico t valor p const 1 2 3 6,68527 1,14741 0,340902 0,258269 0,114106 0,0902207 0,137053 0,0903199 58,5883 12,7179 2,4874 2,8595 6,68671 1,27356 0,00562629 0,296613 92,887 M odulo 1, 1117 1, 1117 3, 1327 Frecuencia 0, 0983 0, 0983 0, 5000 0,0000 0,0000 0,0129 0,0042
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 0, 9064 0, 9064 3, 1327 Imaginaria 0, 6438 0, 6438 0, 0000
AR
Ra z Ra z Ra z
1 2 3
Modelo 2: estimaciones ARMA utilizando las 113 observaciones 18211933 Variable dependiente: Ln(lince) Coeciente Desv. t pica estad stico t valor p const 1 2 1 6,68440 1,49195 0,817975 0,328985 0,106330 0,0648607 0,0578566 0,0982730 62,8649 23,0023 14,1380 3,3477 6,68671 1,27356 0,00587872 0,296583 92,876 M odulo 1, 1057 1, 1057 3, 0397 Frecuencia 0, 0956 0, 0956 0, 0000 0,0000 0,0000 0,0000 0,0008
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 0, 9120 0, 9120 3, 0397 Imaginaria 0, 6252 0, 6252 0, 0000 70
AR MA
Ra z Ra z Ra z
1 2 1
An alisis de Series Temporales: modelos ARIMA Los modelos estimados son: (1) (2) AR(3) :
SARRIKO-ON 4/09
ARM A(2, 1) :
+ 1, 50 Zt1 0, 82 Zt2 + a t1 t 0, 34 a Zt =
(0, 07) (0, 08) (0, 13)
La estimaci on de la constante dada por Gretl es la media estimada de la serie estacionaria: si el modelo estimado es un M A(q ): = const = C =
si el modelo estimado es un AR(p) o ARM A(p, q ): = const = C = Para la serie de Pieles de lince : = (1) C = 6, 68 = 1 2 3 1 = 1 1, 14 + 0, 34 + 0, 26 = 6, 68 0, 46 = 3, 07 1 2 . . . p 1
= (2) C = 6, 68 =
= 1 2 1 1, 50 + 0, 82 1
= 6, 68 0, 32 = 2, 13
Por u ltimo, la estimaci on de la varianza del ruido blanco, 2 , viene dada por: 2 = Por lo tanto, (1) 2 = a 2 32, 88223 = = 0, 30731 T pq 110 3 0 32, 88891 a 2 = = 0, 30737 T p q 110 2 1 a 2 T p q
(2) 2 =
Por lo que los modelos estimados para la serie de Pieles de lince son: (1) Zt = 3, 07 + 1, 14 Zt1 0, 34 Zt2 0, 26 Zt3 + a t
(0, 10) (0, 14) (0, 09)
2 = 0, 30731 2 = 0, 30737
71
En las siguientes tablas se encuentran los resultados de la estimaci on de varios modelos para la transformaci on estacionaria, Zt = ln(Yt ) = DLn(P roduccion), de la serie Producci on de Tabaco. Pregunta: Escribe los correspondientes modelos estimados.
Modelo 1: estimaciones ARIMA utilizando las 113 observaciones 18721984 Variable dependiente: (1 L) Ln(Produccion) Coeciente Desv. t pica estad stico t valor p const 1 0,0142529 0,719692 0,00443753 0,0613815 3,2119 11,7249 0,0147324 0,203842 0,00227119 0,0270321 43,3014 M odulo 1, 3895 Frecuencia 0, 0000 0,0013 0,0000
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 1, 3895 Imaginaria 0, 0000
MA
Ra z
Modelo 2: estimaciones ARIMA utilizando las 113 observaciones 18721984 Variable dependiente: (1 L) Ln(Produccion) Coeciente Desv. t pica estad stico t valor p const 1 2 0,0142527 0,720531 0,00102293 0,00444005 0,0991205 0,0948359 3,2100 7,2692 0,0108 0,0147324 0,203842 0,00226524 0,0270320 43,3014 M odulo 1, 3906 702, 9871 Frecuencia 0, 0000 0, 0000 0,0013 0,0000 0,9914
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 1, 3906 702, 9871 Imaginaria 0, 0000 0, 0000
MA
Ra z Ra z
1 2
72
SARRIKO-ON 4/09
5.4.
En la etapa de validaci on, diagnosis o chequeo se procede a evaluar la adecuaci on de los modelos estimados a los datos. Se tiene en cuenta: a) Si las estimaciones de los coecientes del modelo son signicativas y cumplen las condiciones de estacionariedad e invertibilidad que deben satisfacer los par ametros del modelo. b) Si los residuos del modelo tienen un comportamiento similar a las innovaciones, es decir, si son ruido blanco.
5.4.1.
En primer lugar, se han de realizar los contrastes habituales de signicaci on individual de los coecientes AR y M A: = (, 1 , 2 , . . . , p , 1 , . . . , q ) para comprobar si el modelo propuesto est a sobreidenticado, es decir, si se ha incluido estructura que no es relevante. En el caso m as general de un ARM A(p, q ) con constante se plantean los siguientes contrastes: H0 : = 0 H0 : i = 0 H0 : i = 0 frente a frente a frente a Ha : = 0 Ha : i = 0 Ha : i = 0 (5.15) (5.16) (5.17)
con la varianza dada por la inversa de la matriz de informaci on. De forma que, para contrastar la H0 de no signicatividad individual de los par ametros se utilizar a el estad stico t habitual que sigue asint oticamente una distribuci on normal: t= i 0 i ) V ( N (0, 1)
Se rechazar a la hip otesis nula a un nivel de signicaci on = 5 %, cuando: i i ) V ( > N/2 (0, 1) 2
Por otro lado, es importante comprobar si las condiciones de estacionariedad e invertibilidad se satisfacen para el modelo propuesto. Para ello, se calculan las ra ces del polinomio autorregresivo, 73
SARRIKO-ON 4/09
(L) = 0 , y las ra ces del polinomio de medias m oviles, (L) = 0. Si alguna de estas ra ces est a pr oxima a la unidad podr a indicar falta de estacionariedad y/o invertibilidad. Por u ltimo, es conveniente tambi en analizar la matriz de covarianzas entre los par ametros estimados con el n de detectar la posible presencia de una correlaci on excesivamente alta entre las estimaciones de los mismos lo que puede ser una indicaci on de la presencia de factores comunes en el modelo. Ejemplo 6.6. Pieles de lince. Para realizar los contrastes de diagn ostico sobre los coecientes, se analizan los resultados de la estimaci on de los modelos 1 y 2 y las matrices de covarianzas siguientes. Matriz de covarianzas de los coecientes (Modelo AR(3)) const 0, 0130202 phi 1 2, 48347e-05 0, 00813977 phi 2 4, 80732e-05 0, 0108657 0, 0187835 phi 3 5, 56654e-05 0, 00573862 0, 0109509 0, 00815768 const phi 1 phi 2 phi 3
Matriz de covarianzas de los coecientes (Modelo ARMA(2,1)) const 0, 0113060 phi 1 6, 16782e-05 0, 00420691 phi 2 5, 83053e-05 0, 00318008 0, 00334739 theta 1 0, 000117743 0, 00379432 0, 00256617 0, 00965758 const phi 1 phi 2 theta 1
1 1
1, 14 0, 10
SARRIKO-ON 4/09
2 2
0, 34 0, 14
Se rechaza H0 : 3 = 0 para un nivel de signicaci on del 5 %. Estacionariedad del modelo AR(3). Los m odulos de las ra ces del polinomio autorregresivo cumplen la condici on de estacionariedad: |L1 | = 1 >1 0, 32 |L2 | = |L3 | = 1 0, 732 + (0, 52)2 = 1 >1 0, 89
Las correlaciones entre los coecientes estimados que muestran la matriz de covarianzas no son muy altas: 1 , 2 ) = Corr( 1 , 2 ) Cov ( 1 )V ( 2 ) V ( 1 , 3 ) Cov ( 1 )V ( 3 ) V ( 2 , 3 ) Cov ( 2 )V ( 3 ) V ( 0, 01 = = 0, 745 0, 009 0, 02 0, 006 = = 0, 666 0, 009 0, 009 0, 01 = = 0, 745 0, 02 0, 009
1 , 3 ) = Corr(
2 , 3 ) = Corr(
SARRIKO-ON 4/09 1 : 1 1 = 1, 50 0, 07
0, 34 0, 13
Estacionariedad e invertibilidad del modelo ARM A(2, 1). Los m odulos de las ra ces del polinomio autorregresivo cumplen la condici on de estacionariedad: 1 1 |L1 | = |L2 | = >1 = 2 2 0 , 91 0, 75 + (0, 51) El m odulo de la ra z del polinomio medias m oviles cumple la condici on de invertibilidad: |L| = 1 >1 0, 34
Las correlaciones entre los coecientes estimados que se recogen en la matriz de covarianzas no son muy altas. 1 , 2 ) = Corr( 1 , 2 ) Cov ( 1 )V ( 2 ) V ( 1 , ) Cov ( 0, 004 = = 0, 894 0, 005 0, 004
1 , ) = Corr(
2 , ) = Corr(
2 , ) Cov (
SARRIKO-ON 4/09
5.4.2.
An alisis de residuos.
Si el modelo ARM A(p, q ) elegido para la serie estacionaria Zt (por simplicidad, suponemos que EZt = 0) p (L) Zt = q (L) at es correcto, entonces at = estimado (5.18)
p (L) Zt es un proceso ruido blanco. Los residuos del modelo q (L) at = p (L) q (L) Zt (5.19)
son estimaciones de at . El an alisis de residuos consiste en una serie de contrastes de diagn ostico con el objetivo de determinar si los residuos replican el comportamiento de un ruido blanco, es decir, si su media es cero, su varianza constante y las autocorrelaciones nulas. a) Para comprobar si la media es cero, se realiza un an alisis gr aco, representando los residuos a lo largo del tiempo y observando si los valores oscilan alrededor de cero. Adem as se puede llevar a cabo el siguiente contraste de hip otesis: H0 : E (at ) = 0 Ha : E (at ) = 0, El estad stico de contraste se distribuye bajo la hip otesis nula como sigue: t = T a C0 ( a)
a
N (0, 1)
(5.20)
donde a y C0 ( a) son, respectivamente, la media y la varianza muestrales de los residuos. No se rechaza la hip otesis nula al nivel de signicaci on del 5 % si |t| 1,96. b) Varianza constante. Si en el gr aco de los residuos la dispersi on de los mismos es constante, concluiremos que la varianza de at permanece constante. c) Ausencia de correlaci on serial. Si los residuos se comportaran como un ruido blanco, los coecientes de la FAC y FACP muestrales deben ser pr acticamente nulos para todos los retardos. Para comprobarlo, se pueden llevar a cabo: Contrastes de signicatividad individual sobre los coecientes de autocorrelaci on:. H0 : k (a) = 0 Ha : k (a) = 0 Bajo la hip otesis nula, se tiene que
a
k (a) N 77
0,
1 T
SARRIKO-ON 4/09
Se dir a que at es un ruido blanco si los coecientes de autocorrelaci on estimados est an dentro del intervalo de no signicaci on, es decir, si 2 | k (a)| T para todo k o al menos para el 95 % de los coecientes estimados. Otra alternativa es realizar un contraste de signicatividad sobre un conjunto de coecientes de autocorrelaci on, siendo la hip otesis nula, H0 : 1 (a) = 2 (a) = . . . = M (a) = 0 y la hip otesis alternativa que alg un coeciente k sea no nulo, para k = 1, . . . , M . El estad stico m as utilizado para contrastar esta hip otesis es el propuesto por LjungBox(1978):
M
Q (M ) = T (T + 2)
k=1
2 k (a) T k
H0 ,a
2 (M p q )
(5.21)
Se rechaza la hip otesis nula de ausencia de correlaci on serial, para un nivel de signicaci on del 5 %, para valores grandes del estad stico, es decir, si Q (M ) > 2 0,05 (M p q ) En este caso, existir a correlaci on serial en los residuos del modelo por lo que se concluye que el modelo no ha sido capaz de reproducir el patr on de comportamiento sistem atico de la serie y habr a que reformularlo.
d) Contraste de normalidad. El estad stico m as utilizado es el de Jarque-Bera, que se dene: JB = T p q 6 1 Asimetria2 + (Kurtosis 3)2 4
y que bajo la hip otesis nula de normalidad se distribuye asint oticamente como 2 (2). Se rechaza la hip otesis nula de normalidad al nivel de signicaci on del 5 % si JB > 5, 99.
Ejemplo 6.7. Pieles de Lince. El gr aco 5.9 muestra el gr aco y el correlograma de los residuos para cada uno de los modelos propuestos y estimados para esta serie. Se puede observar que el gr aco de los residuos de los dos modelos propuestos y estimados es muy similar y oscila en torno a cero con una varianza bastante homog enea. En lo que se reere al correlograma de los residuos, tambi en en los correlogramas de los residuos de los dos modelos se observa, que la pr actica totalidad de los coecientes de autocorrelaci on 78
SARRIKO-ON 4/09
Modelo ARMA(2,1)
0.5
0.5
Residuo
Residuo
1820 1840 1860 1880 1900 1920
-0.5
-0.5
-1
-1
-1.5
-1.5
-2
+- 1,96/T^0,5 +- 1,96/T^0,5 simple estimados se encuentran dentro de las bandas de no signicaci on, sobre todo los de los 0.5 0.5 retardos m as bajos.
0 Las0 siguientes tablas muestran los estad sticos descriptivos principales de los residuos de los dos modelos estimados para esta series. -0.5 -0.5
-1 0 5 10
Estad usando las 1821 - 20 1933 15 sticos 20 principales, 25 30 35 0 observaciones 5 10 15 retardo para retardo la variable uhat1 (113 observaciones v alidas) AR(3) Media 0, 00562629 Desv. T p. 0, 554851 Mediana 0, 0931793 C.V. 98, 6175 M nimo 1, 7580 Asimetr a 0, 128958 M aximo 1, 87878 Exc. de curtosis 1, 00983
-1
25
30
35
Estad sticos principales, usando las observaciones 1821 - 1933 para la variable uhat2 (113 observaciones v alidas) ARMA(2,1) Media 0, 00587872 Desv. T p. 0, 554805 Mediana 0, 0845680 C.V. 94, 3750 M nimo 1, 8127 Asimetr a 0, 203604 79 M aximo 1, 78708 Exc. de curtosis 0, 871798
SARRIKO-ON 4/09
El estad stico de Box-Ljung proporciona los siguientes resultados: Modelo AR(3) Q(15) = 22, 42 < 2 0,05 (12) = 28, 30 Q(36) = 54, 36 < 57, 672 0,05 (33) = 28, 30 Modelo ARM A(2, 1) Q(15) = 21, 51 < 2 0,05 (12) = 28, 30 Q(36) = 51, 70 < 2 0,05 (33) = 57, 67
Por lo que no se rechaza la hip otesis nula de que los coecientes de autocorrelaci on son cero. En lo que se reere al contraste de Jarque-Bera de Normalidad, se tiene que: Modelo AR(3) JB = 4, 71 < 2 0,05 (2) = 5, 99 No se rechaza H0 Modelo ARM A(2, 1) JB = 4, 05 < 2 0,05 (2) = 5, 99 No se rechaza H0
Ambos modelos propuestos satisfacen los contrastes de diagn ostico por lo que ambos recogen la estructura de la serie Pieles de Lince Ejercicio 6.6. Producci on de tabaco. Estos son los resultados de estimar dos modelos para la serie Ln(Produccion). Estad sticos principales, usando las observaciones 1871 - 1984 para la variable uhat1 (113 observaciones v alidas) MA(1) Media 0, 00227119 Desv. T p. 0, 166397 Mediana 0, 00881448 C.V. 73, 2644 M nimo 0, 550063 Asimetr a 0, 0241193 M aximo 0, 650369 Exc. de curtosis 2, 14855
Estad sticos principales, usando las observaciones 1871 - 1984 para la variable uhat2 (113 observaciones v alidas) MA(2) Media 0, 00226524 Desv. T p. 0, 166395 Mediana 0, 00864620 C.V. 73, 4557 M nimo 0, 550058 Asimetr a 0, 0253168 M aximo 0, 649804 Exc. de curtosis 2, 14227
80
SARRIKO-ON 4/09
Modelo ARIMA(0,1,2)
Residuos de la regresin (= L_Produccion observada estimada)
0.6
0.6
0.4
0.4
0.2
0.2
0.2
0.4
0.4
15
20 retardo
25
30
35
Normalidad: JB = 2,49
+- 1,96/T^0,5
1 0.5
Normalidad: JB = 2,59
+- 1,96/T^0,5
Q(36) = 18,59
Q(36) = 18,58
1 6, 82024e-07 0, 00376769
35theta
10
15
const theta 1
20 retardo
25
30
35
Matriz de covarianzas de los coecientes (Modelo MA(2)). const 1, 97140e-05 theta 1 1, 90397e-06 0, 00982488 theta 2 1, 50197e-06 0, 00737726 0, 00899385 const theta 1 theta 2
Pregunta: Qu e modelo de los dos propuestos seleccionar as para la serie Producci on de tabaco?
81
Cuadro 5.4: Pieles de lince (1821-1930) A no 1821 1822 1823 1824 1825 1826 1827 1828 1829 1830 1831 1832 1833 1834 1835 1836 1837 1838 1839 Pieles 269 321 585 871 1475 2821 3928 5943 4950 2577 523 98 184 279 409 2285 2685 3409 1824 A no 1840 1841 1842 1843 1844 1845 1846 1847 1848 1849 1850 1851 1852 1853 1854 1855 1856 1857 1858 Pieles 409 151 45 68 213 546 1033 2129 2536 957 361 377 225 360 731 1638 2725 2871 2119 A no 1859 1860 1861 1862 1863 1864 1865 1866 1867 1868 1869 1870 1871 1872 1873 1874 1875 1876 1877 Pieles 684 299 236 245 552 1623 3311 6721 4254 687 255 473 358 784 1594 1676 2251 1426 756 A no 1878 1879 1880 1881 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 Pieles 299 201 229 469 736 2042 2811 4431 2511 389 73 39 49 59 188 377 1292 4031 3495 A no 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 1910 1911 1912 1913 1914 1915 Pieles 587 105 387 758 1307 3465 6991 6313 3794 1836 345 382 808 1388 2713 3800 3091 2985 790 A no 1916 1917 1918 1919 1920 1921 1922 1923 1924 1925 1926 1927 1928 1929 1930 Pieles 674 81 80 108 229 1132 2432 3574 2935 1537 529 485 662 1000 1590
82
SARRIKO-ON 4/09
Cuadro 5.5: Produccion de tabaco (1872-1984) A no 1872 1873 1874 1875 1876 1877 1878 1879 1880 1881 1882 1883 1884 1885 1886 1887 1888 1889 1890 Pieles 327 385 382 217 609 466 621 455 472 469 426 579 509 580 611 609 469 661 525 A no 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 Pieles 648 747 757 767 767 745 760 703 909 870 852 886 960 976 857 939 973 886 836 A no 1910 1911 1912 1913 1914 1915 1916 1917 1918 1919 1920 1921 1922 1923 1924 1925 1926 1927 1928 Pieles 1054 1142 941 1117 992 1037 1157 1207 1326 1445 1444 1509 1005 1254 1518 1245 1376 1289 1211 A no 1929 1930 1931 1932 1933 1934 1935 1936 1937 1938 1939 1940 1941 1942 1943 1944 1945 1946 1947 Pieles 1373 1533 1648 1565 1018 1372 1985 1302 1163 1569 1386 1881 1460 1262 1408 1406 1951 1991 1315 A no 1948 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 1962 1963 1964 1965 1966 Pieles 2107 1980 1969 2030 2332 2256 2059 2244 2193 2176 1668 1736 1796 1944 2061 2315 2344 2228 1855 A no 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 Pieles 1887 1968 1710 1804 1906 1705 1749 1742 1990 2182 2137 1914 2025 1527 1786 2064 1994 1429
83
Tablas de valores cr ticos del estad stico de Dickey-Fuller Modelo sin constante T 0,01 25 50 100 250 500 -2,66 -2,62 -2,60 -2,58 -2,58 -2,58 0,025 - 2,26 - 2,25 - 2,24 - 2,24 - 2,23 - 2,23 Nivel de signicaci on 0,05 -1,95 -1,95 -1,95 -1,95 -1,95 -1,95 0,10 -1,60 -1,61 -1,61 -1,62 -1,62 -1,62 0,9 0,92 0,91 0,90 0,89 0,89 0,89 0,95 1,33 1,31 1,29 1,29 1,28 1,28 0,975 1,70 1,66 1,64 1,63 1,62 1,62 0,99 2,16 2,08 2,03 2,01 2,00 2,00
Por ejemplo, para un tama no de muestra T = 25 y = 0, 01, se tiene que P rob(t < 2, 66) = 0, 01.
Modelo con constante T 0,01 25 50 100 250 500 -3,75 -3,58 -3,51 -3,46 -3,44 -3,43 0,025 - 3,33 - 3,22 - 3,17 - 3,14 - 3,13 - 3,12 Nivel de signicaci on 0,05 -3,00 -2,93 -2,89 -2,88 -2,87 -2,86 0,10 -2,63 -2,60 -2,58 -2,57 -2,57 -2,57 0,9 -0,37 -0,40 -0,42 -0,42 -0,43 -0,44 0,95 0,00 -0,03 -0,05 -0,06 -0,07 -0,07 0,975 0,34 0,29 0,26 0,24 0,24 0,23 0,99 0,72 0,66 0,63 0,62 0,61 0,60
Por ejemplo, para un tama no de muestra T = 25 y = 0, 01, se tiene que P rob(tc < 3, 75) = 0, 01.
84
Supongamos que se observa una serie temporal denotada por Yt , para t = 0 hasta t = T , donde T es la u ltima observaci on de que disponemos. La predicci on de series temporales supone decir algo sobre el valor que tomar a la serie en momentos futuros T + , donde representa el n umero de periodos en el futuro que estamos considerando. A la predicci on de YT + con informaci on hasta el momento T la vamos a denotar por YT ( ). Si = 1, entonces se predice el valor de YT +1 y se calcula lo que se denomina predicci on un periodo hacia adelante. Si = 3, entonces se predice el valor de YT +3 y se calcula la predicci on tres periodos hacia adelante, etc. Como estamos considerando que la serie temporal es una realizaci on de un proceso estoc astico estacionario, el valor que se quiere predecir, YT + , es tambi en una variable aleatoria. Para predecir una variable aleatoria, se deber a predecir su funci on de distribuci on y as poder hacer armaciones tales como: prob(163 < YT + 190) = 0, 42. Ahora bien, en general, va a ser muy dif cil determinar completamente la forma de la funci on de densidad sin hacer supuestos muy fuertes y poco realistas sobre la forma de esta funci on. Un objetivo menos ambicioso ser a dise nar unos intervalos de conanza alrededor del valor YT + , que nos permitan decir que prob(B < YT + A) = 0, 95 . Estos valores A y B permiten poner unos l mites al valor que se quiere predecir con un grado de conanza de estar en lo cierto sucientemente alto. Es interesante distinguir entre predicci on por intervalo que conlleva la construcci on de estos intervalos de predicci on y la predicci on por punto, que implica simplemente asignar un valor a YT + que de alguna manera represente a toda la distribuci on de valores. Por ejemplo, una predicci on por punto ser a armar que se predice un n umero de ocupados en el sector industrial el primer trimestre de 2010 de 120.000. Un ejemplo de la predicci on por intervalo, ser a decir: se predice un n umero de ocupados en el sector industrial el primer trimestre de 2010 entre 100.000 y 140.000 con una probabilidad de 0,95. Si el m etodo de predicci on es bueno y si pudi eramos hacer un secuencia de predicciones de este tipo, es de esperar que el n umero real de ocupaados estar a fuera de los intervalos construidos solo en un 5 % de los casos. 85
SARRIKO-ON 4/09
Por predictor optimo (o predicci on optima) se denomina a aquel que es la mejor en el sentido de que minimiza una determinada funci on de p erdida. Lo m as usual es minimizar el Error Cuadr atico Medio de Predicci on, por lo que diremos que YT ( ) es un predictor optimo si minimiza el ECMP, es decir, si cumple que:
E [YT + YT ( )]2 E [YT + YT ( )]2 YT ( )
Se puede demostrar que, bajo condiciones de regularidad muy d ebiles, el predictor por punto optimo viene dado por la esperanza condicionada al conjunto de informaci on: YT ( ) = E [YT + |IT ] = E [YT + |YT , YT 1 , YT 2 , YT 3 , . . .] = ET [YT + ] es decir, por el valor esperado de la distribuci on de YT ( ) condicionada la informaci on disponible. Nada garantiza que esta esperanza condicionada sea una funci on lineal del pasado de la serie. Pero si el proceso sigue una distribuci on normal, se puede demostrar que la esperanza condicionada se puede expresar como una funci on lineal del conjunto de informaci on, IT . Por lo tanto, bajo el supuesto de normalidad, el predictor optimo en el sentido de minimizar el ECMP es lineal. Si no se cumple este supuesto, la proyecci on lineal de YT + en su pasado proporcionar a el predictor optimo dentro de la clase de predictores lineales. La predicci on optima por intervalo se construir a a partir de la distribuci on del error de predicci on que, bajo el supuesto de que at RBN (0, 2 ) , es la siguiente: eT ( ) = YT + YT ( ) N (0, V (eT ( ))) Tipicando se obtiene: YT + YT ( ) 0 V (eT ( )) N (0, 1)
De forma que el intervalo de predicci on de probabilidad (1 ) % es: YT ( ) N/2 V (eT ( )), YT ( ) + N/2 V (eT ( ))
6.1.
Consideremos el modelo lineal general (3.2), M A() y el conjunto de informaci on dado por (6.1). La estrategia de predicci on se va a basar en escribir el valor que se desea predecir, YT + , tal y como se genera en funci on del modelo para luego obtener la predicci on optima calculando la esperanza condicionada al conjunto de informaci on. Para la representaci on medias m oviles general, YT + viene dado por: YT + = aT + + 1 aT +
1
+ 2 aT +
+...+
1 aT +1
+ aT +
+1 aT 1
+2 aT 2
+...
+2 aT 2
+3 aT 3
+ ...
86
An alisis de Series Temporales: modelos ARIMA dado que: ET (aT +j ) = aT +j E (aT +j ) = 0 j0 j>0
SARRIKO-ON 4/09
La perturbaci on at es la innovaci on en el momento t. Si, dado el conjunto de informaci on IT , se conoce el verdadero valor de Yt , como la parte sistem atica se puede predecir mediante el modelo, la perturbaci on at = Yt P S t est a determinada, es ja. Si, dado IT , no se conoce el verdadero valor de Yt , entonces la innovaci on at no est a determinada por el conjunto de informaci on, con lo que su media condicionada ser a la misma que su media no condicionada, es decir, cero. Los errores de predicci on son: eT (1) = YT +1 YT (1) = aT +1 + 1 aT + 2 aT 1 + 3 aT 2 + . . . (1 aT + 2 aT 1 + 3 aT 3 + . . .) = aT +1 eT (2) = YT +2 YT (2) = aT +2 + 1 aT +1 + 2 aT + 3 aT 1 + . . . (2 aT + 3 aT 1 + 4 aT 2 + . . .) = aT +2 + 1 aT +1 ... = ... eT ( ) = YT + YT ( ) = aT + + 1 aT + + aT +
+1 aT 1 +1 aT 1 1 1
+ 2 aT +
+ ... +
1 aT +1
+2 aT 2 +2 aT 2 2
+ ... +
+3 aT 3
( aT +
+ . . .) =
= aT + + 1 aT +
+ 2 aT +
+ ... +
1 aT +1
Los errores de predicci on son una combinaci on lineal de las perturbaciones futuras aT + , = 1, 2, . . . con valor medio cero: ET (eT ( )) = ET [aT + + 1 aT +
1
+ 2 aT +
+ ... +
1 aT +1 ]
= 0
La varianza del error de predicci on o Error Cuadr atico Medio de Predicci on viene dado por: VT (eT (1)) = ET [eT (1)]2 = ET [aT +1 ]2 = 2
2 VT (eT (2)) = ET [eT (2)]2 = ET [aT +2 + 1 aT +1 ]2 = (1 + 1 ) 2
+ 2 aT +
1 2 i
+ ... +
2 1 aT +1 ]
= (6.2)
2 2
+ ... +
21 )
87
SARRIKO-ON 4/09
Como se puede observar la varianza del error de predicci on va creciendo conforme nos alejamos en el futuro. Ahora bien, si el proceso es estacionario se cumple que:
2 i < i=1
por lo que esta varianza no crece indenidamente, sino que tiene una cota m axima nita. Se puede observar que la perturbaci on o innovaci on at y su varianza 2 tienen una nueva interpretaci on: - at = Yt Yt1 (1) , es el error de predicci on un periodo hacia adelante. - V (at ) = 2 , es la varianza del error de predicci on un periodo hacia adelante. Si el proceso ruido blanco sigue una distribuci on normal, se tiene que: eT ( ) = YT + YT ( ) N [0, V (eT ( ))] Por lo que el intervalo de predicci on de probabilidad (1 ) % es: YT +1 : YT +2 : . . . YT + : YT (1) N/2 YT (2) N/2 . . . YT ( ) N/2 2
i=0
YT (1) + N/2 ;
2
2) 2 (1 + 1
2) 2 (1 + 1
YT (2) + N/2
1 2 i
2 i
YT ( ) + N/2
2
i=0
6.1.1.
Comencemos por un modelo de medias m oviles sencillo, por ejemplo, el M A(2) de media cero: Yt = at 1 at1 2 at2 La funci on de predicci on es: YT +1 = aT +1 1 aT 2 aT 1 YT (1) = ET [YT +1 ] = ET [aT +1 1 aT 2 aT 1 ] = 1 aT 2 aT 1 YT +2 = aT +2 1 aT +1 2 aT YT (2) = ET [YT +2 ] = ET [aT +2 1 aT +1 2 aT ] = 2 aT 1 88 at RBN (0, 2 ) t = 1, 2, . . .
SARRIKO-ON 4/09
YT (3) = ET [YT +3 ] = ET [aT +3 1 aT +2 2 aT +1 ] = 0 YT ( ) = ET [YT + ] = 0 (= E (Yt )) > 2 Por lo tanto, la funci on de predicci on de un M A(2), depende del conjunto de informaci on, IT , para = 1, 2 . A partir de > 2 , la predicci on optima viene dada por la media del proceso. Estos resultados se pueden generalizar f acilmente para el modelo M A(q ): Yt = at 1 at1 2 at2 . . . q atq La funci on de predicci on es: YT ( ) = at RBN (0, 2 ) t = 1, 2, . . .
Como el modelo M A(2) est a escrito directamente en forma medias m oviles, se obtiene la varianza del error de predicci on aplicando la expresi on (6.2) con i = i , i = 1, 2, . . . , q y i = 0, i > q : V (eT (1)) = 2 2) 2 V (eT (2)) = (1 + 1 ... ... V (eT ( )) = 2 + 2 + . . . + 2 ) 2 V (eT (q )) = (1 + 1 2 q 1 2 2 2 V (eT ( )) = (1 + 1 + 2 + . . . + q ) 2 (= V (Yt )) = q + 1, q + 2, . . . Aunque la varianza del error de predicci on es una funci on creciente de , el horizonte de predicci on, tiene una cota m axima que viene dada por la varianza no condicionada del proceso y que se alcanza para = q . Se puede concluir que para un modelo M A(q ) las predicciones para los q primeros horizontes de predicci on, = 1, 2, . . . , q , dependen del conjunto de informaci on a trav es de los errores de predicci on un periodo hacia adelante aT , aT 1 , . . . , aT +1q , con lo que se mejora la predicci on respecto de la media no condicionada del proceso porque se predice con una varianza del error de predicci on menor que la varianza no condicionada del proceso. A partir de = q , el conjunto de informaci on no aporta nada a la predicci on porque las predicciones optimas son la media no condicionada del proceso y la varianza del error de predicci on es la varianza no condicionada del proceso. Esto signica que, condicionando al conjunto de informaci on, se obtienen los mismos resultados que sin condicionar, luego a partir de = q , IT ya no es informativo. 89
SARRIKO-ON 4/09 La predicci on por intervalo viene dada por: =1 =2 ... =q >q
2
2) 2 (1 + 1
2 + . . . + 2 2 2 (1 + 1 q 1 + q )
La amplitud de los intervalos de predicci on va creciendo con , con el l mite impuesto por N/2
2 + . . . + 2 2 2 (1 + 1 q 1 + q ) = N/2
V (Yt )
6.1.2.
Consideremos el modelo autorregresivo m as sencillo, el AR(1). Yt = Yt1 + at La funci on de predicci on es: YT +1 = YT + aT +1 YT (1) = ET [YT +1 ] = ET [ YT + aT +1 ] = YT YT +2 = YT +1 + aT +2 YT (2) = ET [YT +2 ] = ET [ YT +1 + aT +2 ] = ET [YT +1 ] = YT (1) YT +3 = YT +2 + aT +3 YT (3) = ET [YT +3 ] = ET [ YT +2 + aT +3 ] = ET [YT +2 ] = YT (2) De forma que la funci on de predicci on es: YT ( ) = YT ( ), dado que: ET (YT +j ) = YT +j E (YT (j )) 90 j0 j>0 = 1, 2, 3, . . . (6.3) at RBN (0, 2 ) t = 1, 2, . . .
SARRIKO-ON 4/09
La funci on de predicci on (6.3) recoge una regla de cadena para obtener las predicciones de un proceso autorregresivo unas en funci on de las otras hasta un futuro indenido. La trayectoria de la funci on de predicci on depende de la estructura de la parte autorregresiva: YT (1) = YT YT (2) = YT (1) = YT = 2 YT YT (3) = YT (2) = 2 YT = 3 YT YT (4) = YT (3) = 3 YT = 4 YT YT ( ) = YT = 1, 2, 3, . . .
Como el proceso autorregresivo es estacionario, || < 1, y por lo tanto cuando nos alejamos en el futuro la funci on de predicci on tiende hacia la media no condicionada del proceso: l m YT ( ) = 0 ( = E (Yt ))
Para construir los intervalos de predicci on, se ha de obtener la varianza del error de predicci on. Para ello es preciso partir del modelo escrito en forma medias m oviles. En el caso del AR(1): (1 L) Yt = at Yt = 1 at 1 L
Yt = (1 + L + 2 L2 + 3 L3 + . . . ) at Yt = at + at1 + 2 at2 + 3 at3 + . . . Por lo que la varianza del error de predicci on se obtiene aplicando la f ormula general (6.2) con i 1 = , i : V (eT (1)) = 2 V (eT (2)) = (1 + 2 ) 2 V (eT (3)) = (1 + 2 + (2 )2 ) 2 V (eT ( )) = V (eT (4)) = (1 + 2 + (2 )2 + (3 )2 ) 2 V (eT ( )) = (1 + 2 + (2 )2 + . . . + ( 1 )2 ) 2 La varianza del error de predicci on es monotonamente creciente conforme nos alejamos en el futuro. Como el proceso es estacionario, esta varianza no crece indenidamente sino que tiene una cota superior dada por la varianza no condicionada del proceso: l m V (eT ( )) = l m 2
1 + 2 + (2 )2 + . . . + ( 91
1 2
2 = V (Yt ) 1 2
2 (1 + 2 ) 2 (1 + 2 + (2 )2 )
YT ( 1) N/2
2 (1 + 2 + (2 )2 + . . . + (
1 )2 )
La amplitud de los intervalos de predicci on va creciendo con , con el l mite impuesto por 2 = N/2 1 2
N/2
V (Yt )
Los resultados obtenidos para el modelo AR(1) se pueden extender para el modelo AR(p). En general, las funciones de predicci on de procesos autorregresivos puros, se obtendr an a partir de reglas de cadena: YT ( ) = 1 YT ( 1) + 2 YT ( 2) + 3 YT ( 3) + . . . + p YT ( p), = 1, 2, 3, . . .
La funci on de predicci on de un proceso AR(1) utiliza la u ltima observaci on YT para obtener la predicci on un periodo hacia adelante y luego, a partir de esta, se obtienen el resto de las predicciones. En el caso de un autorregresivo de orden p autorregresivo de orden p, se utilizar an las p u ltimas observaciones para obtener las predicciones para = 1, 2, . . . , p, y el resto se obtienen a partir de las p primeras.
6.1.3.
Consideremos un modelo ARM A(p, q ) sencillo, el ARM A(1, 2): Yt = + Yt1 + at 1 at1 2 at2 La media de este proceso no es cero si = 0 : E (Yt ) = 92 1 at RBN (0, 2 ) t = 1, 2, . . . (6.4)
An alisis de Series Temporales: modelos ARIMA Las predicciones por punto son: YT +1 = + YT + aT +1 1 aT 2 aT 1
SARRIKO-ON 4/09
YT (1) = ET [YT +1 ] = ET [ + YT + aT +1 1 aT 2 aT 1 ] = = + YT 1 aT 2 aT 1 YT +2 = + YT +1 + aT +2 1 aT +1 2 aT YT (2) = ET [YT +2 ] = ET [ + YT +1 + aT +2 1 aT +1 2 aT ] = = + YT (1) 2 aT YT +3 = + YT +2 + aT +3 1 aT +2 2 aT +1 YT (3) = ET [YT +3 ] = ET [ + YT +2 + aT +3 1 aT +2 2 aT +1 ] = = + YT (2) YT ( ) = ET [YT + ] = + YT ( 1) > 2 La estructura de la funci on de predicci on es la siguiente. Las dos primeras predicciones dependen de la u ltima observaci on YT (parte autorregresiva) y de los u ltimos errores de predicci on un periodo hacia adelante aT y aT 1 (parte medias m oviles). Para > 2, la parte medias m oviles no aparece de forma expl cita en la funci on de predicci on, y cada predicci on se va obteniendo de las anteriores siguiendo una regla en cadena marcada por la parte autorregresiva. Esta funci on se va acercando a la media del proceso conforme nos alejamos en el futuro: YT (3) = + YT (2) YT (4) = + YT (3) = + ( + YT (2)) = (1 + ) + 2 YT (2) YT (5) = + YT (4) = + ( (1 + ) + 2 YT (2)) = (1 + + 2 ) + 3 YT (2) ... ...
3
YT ( ) = + YT ( 1) = (1 + + 2 + . . . +
)+
YT (2)
l m YT ( ) =
i=0
i =
( = E (Yt )) 1
Para obtener la varianza del error de predicci on y, por lo tanto, las predicciones por intervalo, se deriva la representaci on medias m oviles innita: (1 L) Yt = (1 1 L 2 L2 ) at Yt = 1 1 L 2 L2 at = (1 + 1 L + 2 L2 + 3 L3 + . . .) at 1 L 93
1 1 L 2 L2 = 1 + 1 L + 2 L2 + 3 L3 + . . . 1 L 1 1 L 2 L2 = (1 L)(1 + 1 L + 2 L2 + 3 L3 + . . .)
con estos pesos se pueden construir los intervalos de predicci on. Como el proceso ARM A(1, 2) es estacionario, la amplitud de los intervalos ir a creciendo conforme nos alejamos en el futuro pero con una cota m axima dada por N/2 V (Yt ) .
6.1.4.
Habitualmente no se conoce el proceso que ha generado la serie temporal Yt por lo que hay que estimarlo con los datos disponibles, obteniendo: p (L) Yt = q (L) a t t = 1, 2, . . . , T
donde a t son los residuos del modelo, pero tambi en una estimaci on del error de predicci on un periodo hacia adelante. Por ejemplo, en el caso del modelo (6.4), la funci on de predicci on estimada ser a: + YT 1 a 2 a =1 YT (1) = T T 1 + YT (1) 2 a YT ( ) = =2 YT (2) = T + YT ( 1) >2 YT ( ) =
94
An alisis de Series Temporales: modelos ARIMA Ejemplo 4.1. Modelo M A(2) Yt = 10, 3 + a t + 0, 67 a t1 0, 31 a t2 Funci on de predicci on: YT ( ) = =1 =2 >2
SARRIKO-ON 4/09
t = 1, 2, . . . , T
Todos los procesos medias m oviles nitos son estacionarios y, como se puede observar en la gura de la izquierda del gr aco 6.1, a partir de = 2 la funci on de predicci on permanece constante en la media del proceso con una amplitud constante del intervalo de predicci on. Gr aco 6.1: Proceso MA(2) versus Proceso AR(2)
16 10
AR(2) AR(2)F
14 9
AR(2)F-2*SD AR(2)F+2*SD
12
10
MA(2) MA2F
2 70 72 74 76 78 80 82 84
MA2F+2*SD MA2F-2*SD
3 86 88 90 92 94 96 98 00 02 04 06 08 10 70 75 80 85 90 95 00 05 10 15 20 25 30 35 40 45 50
Ejemplo 4.2. Modelo AR(2) Yt = 2, 4 + 1, 33 Yt1 0, 69 Yt2 + a t Funci on de predicci on: =1 =2 YT ( ) = = 1 , 2, 3, . . . El proceso AR(2) es estacionario: 1 1, 33 L + 0, 69 L2 = 0 L1 , L2 = 1, 33 1, 33 0, 99 1, 33 1, 332 4 0, 69 0, 99 = = i = a bi 2 0, 69 1, 38 1, 38 1, 38 95 t = 1, 2, . . . , T
SARRIKO-ON 4/09 1, 33 1, 38
|L1 | = |L1 | =
a2
b2
0, 99 1, 38
1, 4486 = 1, 2 > 1
Por lo que la funci on de predicci on tiende a su media cuando nos alejamos en el futuro: (Yt ) = l m YT ( ) = E
2, 4 = = 6, 67 1 1, 33 + 0, 69 1 1 2
Este resultado se puede observar claramente en la gura de la derecha del gr aco 6.1. La serie presenta un comportamiento c clico que se reeja en la funci on de predicci on que presenta un ciclo amortiguado antes de dirigirse sistem aticamente hacia la media del proceso. Ejemplo 4.3. Modelo ARM A(1, 1) Yt = 9, 3 + 0, 82Yt1 + a t + 0, 62 a t1 La funci on de predicci on es: YT ( ) = =1 >2 YT (1) = 9, 3 + 0, 82 YT + 0, 62 a T YT ( ) = 9, 3 + 0, 82 YT ( 1) t = 1 , 2, . . . , T
60
60
55
55
50
50
45
45
40
40
ARMA(1,1) ARMA11F
35 60 65 70 75 80
ARMA11F+2* SD ARMA11F-2* SD
35 85 90 95 00 05 10 60 65
ARMA(1,1) ARMA11F
70 75 80 85
ARMA11F+2*SD ARMA11F-2*SD
90 95 00 05 10 15 20 25 30
Como el proceso es estacionario dado que cumple la condici on de que la ra z del polinomio autorregresivo es, en valor absoluto, mayor que la unidad, 1 0, 82 L = 0 L= 1 = 1, 22 0, 82 |L| = |1, 22| > 1
1 96
9, 3 = 51, 67 1 0, 82
SARRIKO-ON 4/09
En las guras del gr aco 6.2 se puede observar el comportamiento de la funci on de predicci on por punto y por intervalo. Las u ltimas observaciones se encuentran por debajo de la media lo que lleva a que la funci on de predicci on parta de un valor inferior a la media estimada del proceso. De forma que la trayectoria de la funci on de predicci on es creciente al principio para dirigirse hacia la media del proceso donde se va estabilizando. Asimismo, se observa el comportamiento de los intervalos de predicci on, de amplitud creciente al principio hasta estabilizarse con la varianza del proceso.
6.2.
La predicci on con modelos no estacionarios ARIM A(p, d, q ) se lleva a cabo de la misma manera que con los modelos estacionarios ARM A(p, q ). El predictor por punto optimo de YT + viene dado por la esperanza condicionada al conjunto de informaci on YT ( ) = ET [YT + ]. Para obtener esta esperanza condicionada basta con escribir el modelo en forma de ecuaci on en diferencias y obtener las esperanzas condicionadas, sabiendo que: ET [YT +j ] = YT +j YT (j ) j0 j>0 ET [aT +j ] = aT +j 0 j0 j>0
YT ( ) N/2
V (eT ( ))
donde V (eT ( )) =
j =0
2 j
el modelo ha de estar escrito en forma M A() ya que j son los pesos del modelo ARIM A escrito en forma medias m oviles. Para analizar las caracter sticas de la funci on de predicci on para modelos no estacionarios ARIM A(p, d, q ), consideremos varios ejemplos sencillos. Ejemplo 5.1. Modelo ARIM A(0, 1, 1). Consideremos que la serie Yt ha sido generada por el siguiente modelo: (1 L) Yt = (1 + L) at Yt = Yt1 + at + at1 La funci on de predicci on es: YT (1) = ET [YT +1 ] = YT + aT YT (2) = ET [YT +2 ] = YT (1) = YT + aT YT (3) = ET [YT +3 ] = YT (2) = YT (1) = YT + aT . . . . . . YT ( ) = ET [YT + ] = YT ( 1) = YT + aT 97 = 1, 2, 3, . . .
SARRIKO-ON 4/09
Por lo tanto, la funci on de predicci on es una l nea horizontal: pasa por la predicci on un periodo hacia adelante, YT (1) , que depende del conjunto de informaci on a trav es de YT y aT y del par ametro del modelo, , y permanece all conforme crece. En el caso del modelo de paseo aleatorio, como = 0 , la funci on de predicci on es: YT ( ) = ET [YT + ] = YT = 1 , 2, 3, . . .
Por lo tanto, las predicciones optimas vienen dadas por la u ltima observaci on independientemente del horizonte de predicci on (ve ase la gura izquierda del gr aco 6.3). Se puede demostrar que si la serie Yt ha sido generada por un proceso integrado de orden 1, de forma que se puede representar mediante un modelo ARIM A(p, 1, q ) sin t ermino independiente ( = 0), la funci on de predicci on cuando , tiende a una constante: YT ( )
KT
Hay que tener en cuenta que K T no es la media del proceso porque como no es estacionario no tiene una media hacia d onde ir, sino que es una constante que depende del conjunto de informaci on y de los par ametros AR y M A del modelo. Obtengamos la funci on de predicci on para un proceso integrado de orden 1 con constante, por ejemplo, el modelo de paseo aleatorio con deriva (4.5). YT (1) = ET [YT +1 ] = YT + YT (2) = ET [YT +2 ] = YT (1) + = YT + 2 YT (3) = ET [YT +3 ] = YT (2) + = YT + 3 . . . . . . YT ( ) = ET [YT + ] = YT ( 1) + = YT + = 1, 2, 3, . . .
La funci on de predicci on es una linea recta de pendiente (ve ase la gura derecha del gr aco 6.3). Se puede demostrar que si la serie Yt ha sido generada por un proceso integrado de orden 1, de forma que se puede representar mediante un modelo ARIM A(p, 1, q ) con t ermino independiente ( = 0), la funci on de predicci on tiende a una l nea recta cuando , YT ( )
KT +
La pendiente de la funci on de predicci on viene dada por la constante y el intercepto, K T , depende del conjunto de informaci on y de los par ametros del modelo. En lo que se reere a la predicci on por intervalo para modelos no estacionarios, las guras del gr aco 6.3 muestran como la amplitud de los intervalos de predicci on para los modelos ARIM A(p, d, q ) crece indenidamente conforme el horizonte de predicci on se hace mayor. Hay que tener en cuenta que cuando el proceso no es estacionario el l mite l m V [eT ( )] no existe. 98
SARRIKO-ON 4/09
P.A. P.A.F
20
P.A.F+2*SD P.A.F-2*SD
150
P.A.D. P.A.D.F
P.A.D.+2*SD P.A.D.-2*SD
10
100
50
-10
-20
-30 1110 1120 1130 1140 1150 1160 1170 1180 1190 1200 1210 1220 1230 1240 1250 1260 1270 1280 1290 1300
1760
1780
1800
1820
1840
1860
1880
1900
1920
1940
1960
1980
2000
2020
2040
Para calcular la V [eT ( )] de un modelo no estacionario ARIM A(p, d, q ) es necesario escribir el modelo en forma M A(). Pongamos como ejemplo el modelo de paseo aleatorio (4.4) que, escrito en forma M A() queda como sigue: Yt = at + at1 + at2 + at3 + . . . La varianza del error de predicci on es:
0
de forma que
j = 1 j
V [eT (1)] =
2 j =0 1
2 j = 2
V [eT (2)] = 2
j =0 2
2 j = 2 (1 + 1) = 2 2
V [eT (3)] = 2
j =0
2 j = 2 (1 + 1 + 1) = 3 2
. . .
. . .
1 2 j = 2 (1 + 1 + ... + 1) = j =0
V [eT ( )] = 2
= 1, 2, 3, . . .
que no tiene l mite nito. Por u ltimo, considerando el caso de procesos integrados de orden 2, ARIM A(p, 2, q ), su funci on de predicci on nal toma la forma: YT ( )
T T K1 + K2
Es decir, conforme el horizonte de predicci on aumenta y nos alejamos en el futuro la funci on T , como la pendiente, K T , de predicci on tiende a una l nea recta donde tanto el intercepto, K1 2 dependen del conjunto de informaci on y de los par ametros del modelo. Por lo tanto, aunque la 99
SARRIKO-ON 4/09
estructura de esta funci on de predicci on es la misma que la de los modelos ARIM A(p, 1, q ) con t ermino independiente (por ejemplo, la funci on de predicci on del paseo aleatorio con deriva), esta funci on de predicci on es m as exible.
100
SARRIKO-ON 4/09
parsimonia, es decir, buscar el modelo m as sencillo y con el menor n umero de par ametros posible que reproduzca las caracter sticas de la serie. Por lo tanto, en este cap tulo se derivar an modelos capaces de recoger el comportamiento estacional pero con un n umero peque no de par ametros, es decir, m as parsimoniosos. Antes de especicar un modelo apropiado, dentro del marco ARIM A, para una serie con tendencia y estacionalidad comenzaremos por estudiar las caracter sticas de la dependencia lineal estacional a trav es de unos modelos muy sencillos, los modelos estacionales puros.
7.1.
Se entiende por modelo estacional puro aquel que recoge u nicamente relaciones lineales entre observaciones del mismo mes para a nos sucesivos, es decir, entre observaciones separadas s periodos o m ultiplos de s, donde s = 4 si la serie es trimestral y s = 12 si la serie es mensual. Por lo tanto, en estos modelos, para simplicar, se parte del supuesto de que no existe estructura regular, es decir, correlaci on entre observaciones consecutivas. Como este supuesto es poco realista, este tipo de modelos no va a ser muy u til en la pr actica pero su estudio permitir a identicar en qu e retardos de la funci on de autocovarianzas y/o autocorrelaci on se reeja la estructura de tipo estacional de una serie. Se denotar an, en general, ARM A(P, Q)s , donde P es el orden del polinomio autorregresivo estacionario y Q es el orden del polinomio medias m oviles invertible. Vamos a analizar las caracter sticas de los modelos estacionales puros espec cos para un proceso Yt estacionario y con estacionalidad trimestral, s = 4. Modelo M A(1)4 Yt = (1 L4 ) at Yt = at at4
En este proceso, el valor de Y en el momento t depende de la perturbaci on contempor anea y de la perturbaci on del mismo trimestre del a no anterior. Como este proceso es un modelo de medias m oviles nito es estacionario para cualquier valor de y su media es cero. El proceso ser a invertible si y solo si las cuatro ra ces del polinomio de medias m oviles tienen modulo fuera del c rculo unidad. Las autocovarianzas vienen dada por: 0 = V (Yt ) = E [Yt ]2 = E [at at4 ]2 = (1 + 2 ) 2 1 = Cov (Yt Yt1 ) = E [Yt Yt1 ] = E [(at at4 )(at1 at5 )] = 0 2 = Cov (Yt Yt2 ) = E [Yt Yt2 ] = E [(at at4 )(at2 at6 )] = 0 3 = Cov (Yt Yt3 ) = E [Yt Yt3 ] = E [(at at4 )(at3 at7 )] = 0 4 = Cov (Yt Yt4 ) = E [Yt Yt4 ] = E [(at at4 )(at4 at8 )] = 2 k = Cov (Yt Ytk ) = E [Yt Ytk ] = E [(at at4 )(atk at4k )] = 0, k > 4 Por lo tanto, la funci on de autocovarianzas y la funci on de autocorrelaci on son las siguientes: 102
An alisis de Series Temporales: modelos ARIMA Retardo k=0 k=4 k=4 FACV 0 = (1 + 2 ) 2 4 = 2 k = 0 FAC 0 = 1 4 =
SARRIKO-ON 4/09
(1 + 2 )
k = 0
Se puede observar que, como para todo modelo de medias m oviles nito, la funci on de autocorrelaci on se trunca y se hace cero a partir de un determinado retardo. Como el orden de la media m ovil es uno, solo un coeciente de autocorrelaci on es distinto de cero y el resto son nulos, pero como la estructura de correlaci on temporal es estacional, este coeciente de autocorrelaci on no nulo es el asociado a k = s = 4 (ve ase el gr aco 7.1). Denominemos retardos estacionales a los asociados con s y m ultiplos de s: k = s, 2s, 3s, . . . ., para distinguirlos as de la estructura regular, existente entre las observaciones sucesivas y que se reeja fundamentalmente para los retardos m as cortos: k = 1, 2, 3, . . . . Por lo tanto, la estructura de la funci on de autocorrelaci on de un M A(1)4 es la siguiente: funci on truncada en el primer retardo estacional. Gr aco 7.1: Funci on de autocorrelaci on. Modelo M A(1)4
1
1
0,8
Parmetro MA = 0,7
0,8
Parmetro MA = -0,7
0,6
0,6
0,4
0,4
0,2
0,2
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
Generalizando el resultado obtenido para el modelo M A(1)4 , se puede demostrar que la estructura de la funci on de autocorrelaci on para un modelo de medias m oviles, M A(Q)s : Yt = Q (Ls ) at = (1 1 Ls 2 L2s . . . Q LQs ) at Yt = at + 1 ats + 2 at2s + . . . + Q atQs es como sigue: k=0 k = s, 2s, . . . , Qs k = k = s, 2s, . . . , Qs 0 = 1 k = 0 k = 0
Es decir, un proceso de medias m oviles de orden Q, tendr a Q coecientes de autocorrelaci on diferentes de cero, correspondientes a los Q primeros retardos estacionales, k = s, 2s, . . . , Qs, y el resto son cero. La funci on de autocorrelaci on es, por lo tanto, nita, trunc andose a partir del Q- esimo retardo estacional, es decir, para k = Qs . 103
Yt = Yt4 + at
En este proceso, el valor de Y en el momento t depende de la perturbaci on contempor anea y del valor pasado de la serie Y en el mismo trimestre del a no anterior. Como es un modelo autorregresivo nito es invertible para cualquier valor de y su media es cero. El proceso ser a estacionario s y solo s las cuatro ra ces del polinomio autorregresivo tienen modulo fuera del c rculo unidad. Las autocovarianzas son: 0 = V (Yt ) = E [Yt ]2 = E [Yt4 + at ]2 = 2 0 + 2 = 2 1 2
1 = Cov (Yt Yt1 ) = E [Yt Yt1 ] = E [(Yt4 + at )Yt1 ] = 0 2 = Cov (Yt Yt2 ) = E [Yt Yt2 ] = E [(Yt4 + at )Yt2 ] = 0 3 = Cov (Yt Yt3 ) = E [Yt Yt3 ] = E [(Yt4 + at )Yt3 ] = 0 4 = Cov (Yt Yt4 ) = E [Yt Yt4 ] = E [(Yt4 + at )Yt4 ] = 0 5 = Cov (Yt Yt5 ) = E [Yt Yt5 ] = E [(Yt4 + at )Yt5 ] = 0 6 = Cov (Yt Yt6 ) = E [Yt Yt6 ] = E [(Yt4 + at )Yt6 ] = 0 7 = Cov (Yt Yt7 ) = E [Yt Yt7 ] = E [(Yt4 + at )Yt7 ] = 0 8 = Cov (Yt Yt8 ) = E [Yt Yt8 ] = E [(Yt4 + at )Yt8 ] = 4 = 2 0 ... = ... De lo que se deduce que la funci on de autocovarianzas y, como consecuencia, la funci on de autocorrelaci on son: Retardo k=0 k = 4.j, j = 1, 2, . . . k = 4.j, j = 1, 2, . . . FACV 0 = 2 1 2 k = k/4 0 FAC 0 = 1 k = k/4 k = 0
k = 0
La funci on de autocorrelaci on es, por lo tanto, innita y decrece como una funci on exponencial del par ametro , siendo nulos los coecientes de autocorrelaci on asociados a valores de k no estacionales, k = j 4. Como se puede observar en el gr aco 7.2 si el par ametro es positivo, todos los coecientes de autocorrelaci on no nulos son positivos, mientras que si es negativo los coecientes van alternando de signo. El modelo AR(P )s , P (Ls ) Yt = at , se puede escribir en forma extendida como: Yt = 1 Yts + 2 Yt2s + . . . + P YtP s + at 104
SARRIKO-ON 4/09
Parmetro AR = 0,7
0,8
Parmetro AR = - 0,7
0,6
0,6
0,4
0,4
0,2
0,2
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
A partir de los resultados para el modelo AR(1)s se puede generalizar que su funci on de autocorrelaci on es innita y decrece exponencialmente o en forma onda seno-coseno amortiguada, pero con valores no nulos u nicamente para los retardos estacionales, k = s, 2s, 3s, . . . . Modelo ARM A(1, 1)4 . (1 L4 ) Yt = (1 L4 ) at Yt = Yt4 + at at4
En los procesos generados por este modelo ARMA estacional puro el valor de Y en el momento t depende del valor pasado de Y del mismo trimestre del a no anterior, de la perturbaci on contempor anea y su retardo correspondiente al mismo trimestre de hace un a no. Este modelo ser a estacionario cuando las cuatro ra ces del polinomio autorregresivo tengan m odulo fuera del c rculo unidad y ser a invertible cuando las cuatro ra ces del polinomio de medias m oviles tengan m odulo fuera del c rculo unidad. Es f acil demostrar que la media de este proceso estacionario es cero y sus autocovarianzas 0 = V (Yt ) = E [Yt ]2 = E [Yt4 + at at4 ]2 = = 2 0 + 2 + 2 2 2 2 0 = 2 (1 + 2 2) 1 2
1 = Cov (Yt Yt1 ) = E [Yt Yt1 ] = E [(Yt4 + at at4 )Yt1 ] = 0 2 = Cov (Yt Yt2 ) = E [Yt Yt2 ] = E [(Yt4 + at at4 )Yt2 ] = 0 3 = Cov (Yt Yt3 ) = E [Yt Yt3 ] = E [(Yt4 + at at4 )Yt3 ] = 0 4 = Cov (Yt Yt4 ) = E [Yt Yt4 ] = E [(Yt4 + at at4 )Yt4 ] = 0 2 5 = Cov (Yt Yt5 ) = E [Yt Yt5 ] = E [(Yt4 + at at4 )Yt5 ] = 0 6 = Cov (Yt Yt6 ) = E [Yt Yt6 ] = 7 = Cov (Yt Yt7 ) = E [Yt Yt7 ] = 0 8 = Cov (Yt Yt8 ) = E [Yt Yt8 ] = E [(Yt4 + at at4 )Yt8 ] = 4 ... = ... 105
SARRIKO-ON 4/09
De donde se deducen la funci on de autocovarianzas y de autocorrelaci on siguientes: Retardo k=0 k=4 k = 4.j, j = 2, 3, . . . k = 4.j, j = 1, 2, . . . 0 = FACV (1 + 2 2) 2 1 2 0 = 1 4 = ( )(1 ) 1 + 2 2 FAC
4 = 0 2 k = k4 k = 0
k = k4 k = 0
En el gr aco 7.3 se representan las funciones de autocorrelaci on para los siguientes modelos ARM A(1, 1)4 : (A) Yt = 0, 7 Yt4 + at + 0, 4 at4 (B ) Yt = 0, 3 Yt4 + at 0, 8 at4
Modelo A
0,8
Modelo B
0,8
0,6
0,6 0,4 0,4 0,2 0,2 0 0 1 -0,2 -0,4 -0,4 -0,6 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 -0,2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,6
-0,8
-0,8
-1
-1
En ambas guras de este gr aco se observa que la funci on es innita y decrece exponencialmente tomando valores no nulos u nicamente en los retardos estacionales. La estructura que puede tomar esta FAC innita es m as compleja que la del AR(1)4 porque el primer coeciente estacional de la FAC depende tanto de la parte autorregresiva como medias m oviles del modelo. Luego, a partir del segundo retardo estacional la trayectoria de la FAC depende s olo de la parte autorregresiva. Por eso, podemos tener FAC con todos los coecientes positivos o todos negativos, o alternando de signo. A partir de estos resultados se puede generalizar que la funci on de autocorrelaci on de un modelo ARM A(P, Q)s : (1 P Ls ) Yt = (1 Q Ls ) at (1 1 Ls 2 L2s . . . P LP s ) Yt = (1 1 Ls 2 L2s . . . Q LQs ) at Yt = 1 Yts + 2 Yt2s + . . . + P YtP s + at 1 ats + 2 at2s + . . . + Q atQs 106
SARRIKO-ON 4/09
La FAC de este modelo es innita y decrece exponencialmente pero con valores no nulos u nicamente para los retardos estacionales, k = s, 2s, . . . . Los Q primeros coecientes de autocorrelaci on k , k = s, 2s, 3s, . . . , Qs dependen de los par ametros autorregresivos y de medias m oviles; a partir de k = s(Q + 1) las autocorrelaciones se derivan de la estructura autorregresiva exclusivamente, por lo que decrecer an exponencialmente o en forma de onda seno-coseno amortiguada dependiendo de si las s ra ces del polinomio autorregresivo (1 P Ls ) son reales o complejas. En lo que se reere a la estructura de la funci on de autocorrelaci on parcial de los modelos estacionales puros que estamos estudiando es an aloga a la estudiada en el cap tulo 3 para los modelos ARM A(p, q ) no estacionales, pero en estos modelos aparece s olo en los retardos estacionales. As , se puede demostrar que la FACP de un modelo AR(P )s es nita, toma valores no nulos u nicamente en los P primeros retardos estacionales, es decir, y se trunca a partir de k = P s . La FACP de un modelo M A(Q)s es innita y decrece exponencialmente tomando valores no nulos u nicamente para los retardos no estacionales. Por u ltimo, la FACP de un modelo ARM A(P, Q)s ser a tambi en innita con valores no nulos s olo en los retardos estacionales y tal que los coecientes de autocorrelaci on parcial, pk , asociados a los P primeros retardos estacionales dependen de los par ametros autorregresivos y de medias m oviles y a partir de k = (P + 1)s , su estructura depender a de la parte de medias m oviles. Por lo tanto, podemos concluir que la estructura estacional, es decir, la dependencia temporal de las observaciones separadas por un a no, aparece exclusivamente en los coecientes de autocorrelaci on simple y parcial asociados a los retardos estacionales, k = s, 2s, 3s, . . ., siendo nulos para el resto de los valores k = s, 2s, 3s, . . ..
7.2.
Hasta el momento hemos supuesto que la serie Yt es estacionaria, quiz as tras alg un tipo de transformaci on. En la pr actica, dado que por estacionalidad entendemos una pauta regular de comportamiento c clico de periodo 1 a no de la serie que implica que, en promedio, cada mes tiene un comportamiento diferente, las series estacionales suelen presentar problemas de falta de estacionariedad en media o lo que es lo mismo cambios sistem aticos en el nivel de la serie. Si la estacionalidad fuese siempre exactamente peri odica, St = Sts se podr a eliminar de la serie como un componente determinista previamente estimado (especicado, por ejemplo, en funci on de variables cticias estacionales). Ahora bien, este esquema estacional es muy r gido porque exige que los factores estacionales estacionales permanezcan constantes a lo largo del tiempo. Sin embargo, la mayor a de las series no se comportan de una forma tan regular y, en general, el componente estacional ser a estoc astico y estar a correlacionado con la tendencia. Por lo tanto, un esquema de trabajo m as exible es suponer que la estacionalidad es s olo aproximadamente constante y que evoluciona estoc asticamente: Yt = St + t con St = Sts + t
donde t es un proceso estoc astico estacionario. Para solucionar la no estacionariedad en media que genera el comportamiento estacional, se toman diferencias entre observaciones separadas s periodos, que llamaremos diferencias estacio107
s Yt = (1 Ls ) Yt = St + t Sts ts = t + t ts de forma que s Yt M A(1)s estacionario e invertible. En conclusi on, el operador s convierte un proceso estacional no estacionario en estacionario, de forma an aloga a como de un proceso no estacionario en media obten amos una serie estacionaria aplicando el operador de diferencias de orden 1 o regular, (1 L). La formulaci on general de un modelo para una serie estacional pura no estacionaria es:
s P (Ls ) D s Yt = Q (L ) at
(7.1)
En teor a, D, el n umero de las diferencias estacionales que se han de aplicar para convertir a la serie en estacionaria, puede tomar cualquier valor dependiendo de las caracter sticas de la serie, aunque en la pr actica nunca es superior a 1. El modelo (7.1) es un modelo estacional puro que se denomina ARIM A(P, D, Q)s , donde P es el orden del polinomio autorregresivo estacional estacionario, Q es el orden del polinomio medias m oviles estacional estacionario y D es el n umero de diferencias estacionales (1 Ls ) que es necesario aplicar a la serie Yt para que sea estacionaria, es decir, el orden de integraci on estacional de la serie. De hecho, si la serie Yt sigue el modelo (7.1) se dice que es integrada estacional de orden D , Yt I (D)s . El modelo (7.1) no es estacionario, no tiene una media constante y, al igual que para los modelos lineales no estacionarios en la parte regular, su funci on de autocorrelaci on no va a decrecer r apidamente hacia cero, sino lentamente. En el gr aco 7.4 se representan dos series de 100 observaciones, as como sus correspondientes correlogramas, generadas a partir de los siguientes modelos: (A) Yt = at 0, 4 at4
(B ) (1 L4 ) Yt = at 0, 4 at4 Aunque ambos modelos representan series con estructura de dependencia temporal entre observaciones separadas un a no, el modelo (A) es un M A(1)4 estacionario y el modelo (B) es un ARIM A(0, 1, 1)4 , lo que implica que la serie Yt no es estacionaria y hay que tomar una diferencia estacional de orden 4 para transformarla en estacionaria. El hecho de que la estructura estacional sea estacionaria o no se reeja en las caracter sticas de cada proceso mostradas en las guras del gr aco 7.4. En cuanto a las realizaciones de ambos procesos, ambas oscilan en torno a una media constante con un comportamiento c clico de periodo anual. Pero mientras, la evoluci on c clica estacionaria del modelo (A) es m as irregular y aleatoria, la mostrada por el modelo (B) es m as persistente y sistem atica, reejando claramente el hecho de que cada mes tiene una media diferente. Analizando los correlogramas se puede concluir que el correspondiente al modelo (A) decrece r apidamente hacia cero como corresponde a un modelo estacionario (de hecho se trunca en el retardo 4, primer retardo estacional), mientras que si nos jamos en los coecientes asociados a los retardos estacionales del correlograma del modelo (B), se observa que decrecen muy lentamente. Adem as, la no estacionariedad del ciclo estacional hace que la estructura c clica sistem atica de la serie se reproduzca en el correlograma, 108
SARRIKO-ON 4/09
apareciendo correlaciones negativas en los retardos js/2, j = 1, 2, . . . que decrecen lentamente y recogen la relaci on lineal inversa entre los valles y los picos del ciclo, etc. Gr aco 7.4: Modelos estacionales estacionarios vs. no estacionarios
45 52 43
Modelo A
Modelo B
41
39 42 37
35
33 32 31
29
27
25
:1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 70 70 71 72 73 73 74 75 76 76 77 78 79 79 80 81 82 82 83 84 85 85 86 87 88 88 89 90 91 91 92 93 94 94 95 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19
22
:1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 :3 :2 :1 :4 94 19
20
70
70
71
72
73
73
74
75
76
76
77
78
79
79
80
81
82
82
83
84
85
85
86
87
88
88
89
90
91
91
92
93
94
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
19
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
7.3.
En general, las series econ omicas adem as del componente estacional, presentan otros componentes, como tendencia, etc. de los que, por otro lado, el componente estacional no es independiente. Se trata de proponer un modelo ARIM A que recoja no solo las relaciones entre periodos (a nos) sino tambi en las relaciones dentro de los periodos (intranuales) y la interacci on entre ambas estructuras. Consideremos una serie estacional Yt con periodo s conocido, por ejemplo, una serie mensual observada durante N a nos, de forma que en total contamos con T = 12N observaciones. Si la serie es estacional podemos dividirla en 12 subseries, una por mes, de N observaciones que denotaremos: (1) (2) (3) (12) y , y , y , . . . , y , = 1, 2, . . . , N La relaci on entre estas subseries y la serie de partida es:
(j ) y = Yj +12( 1) = Yt
= 1 , 2, . . . , N
j = 1, 2, . . . , 12
19
95
:3
(7.2)
Cada una de estas doce subseries no presenta comportamiento estacional por lo que podemos representarlas mediante los modelos ARIM A(p, d, q ) derivados en el cap tulo 4. Supongamos (j ) que el modelo ARIM A adecuado para las doce subseries y es el mismo:
(j ) j) (1 1 L . . . p Lp ) (1 L)D y = (1 1 L . . . q Lq ) u( = 1, 2, . . . , N (7.3)
109
SARRIKO-ON 4/09
Si hay estacionalidad en la serie de partida Yt se cumple que D 1. Not ese que si D = 0 y, por (j ) lo tanto, las series y fueran estacionarias, todos los modelos (7.3), al ser el mismo, tendr an la misma media, lo que es incompatible con el supuesto de estacionalidad que implica que la (j ) media de cada mes, o sea de cada subserie y , j = 1, 2, . . . , 12 , es diferente. Los modelos para las doce subseries, al ser todos iguales, se pueden escribir conjuntamente en funci on de la serie de partida Yt , teniendo en cuenta que, dada la relaci on (7.2):
(j ) L y = y 1 = Yj +12( 2) = Yj 12+12( 1) = L12 Yj +12( 1) (j )
(j )
Adem as habr a que denir una serie de ruido com un para las doce subseries, t , asignando a cada mes t el ruido del modelo univariante correspondiente a dicho mes. En consecuencia, t se (j ) obtendr a a partir de las doce subseries u como sigue:
j) u( = j +12( 1)
= 1, 2, . . . , N
Aplicando ambos resultados al modelo (7.3), se obtiene el modelo conjunto para toda la serie mensual, Yt :
(j ) (1 1 L12 . . . p L12p ) (1 L12 )D y = (1 1 L12 . . . q L12q ) t , (j )
t = 1, 2, . . . , 12N
Para cada uno de los modelos (7.3) las series u son, por construcci on, ruido blanco, pero la serie conjunta, t , t = 1, 2, . . . , T , no tiene por qu e serlo, en general, ya que la mayor a de las veces existir a dependencia entre las observaciones contiguas que, como no ha sido todav a tenida en cuenta, quedar a recogida en esta serie de ruido. Es lo que se denomina estructura regular o estructura asociada a los intervalos naturales de medida de la serie (meses en nuestro caso). Suponiendo que t sigue el modelo ARIM A no estacional siguiente: p (L) (1 L)d t = q (L) at at RBN (0, 2 )
Sustituyendo este modelo en el general para Yt se obtiene el modelo completo para la serie observada: s P (Ls ) p (L) d D (7.4) s Yt = q (L) Q (L ) at donde p (L) y q (L) son los polinomios autorregresivos y medias m oviles de la parte regular y d es el orden de integraci on de la parte regular; mientras que P (L) y Q (L) son los polinomios autorregresivos y medias m oviles de la parte estacional y D es el orden de integraci on de la parte estacional. Los modelos ARIMA estacionales multiplicativos, ARIM A(p, d, q ) (P, D, Q)s . Estos modelos son exibles en el sentido de que especican estacionalidades estoc asticas, tendencias estoc asticas y adem as recogen la posible interacci on entre ambos componentes. Esta clase de modelos, como hemos visto, se basa en la hip otesis central de que la relaci on de dependencia estacional es la misma para todos los periodos. Este supuesto no se tiene por qu e cumplir siempre pero, de todas maneras, estos modelos son capaces de representar muchos fen omenos 110
SARRIKO-ON 4/09
estacionales que encontramos en la pr actica de una forma muy simple. Supongamos, por ejemplo, que Yt es una serie estacional mensual que sigue el siguiente modelo ARIM A(0, 1, 1) (0, 1, 1)12 , denominado Modelo de L neas A ereas y que es muy utilizado en la pr actica, 12 Yt = (1 1 L) (1 12 L12 ) at = (1 1 L 12 L12 + 1 12 L13 ) at Not ese que este modelo para la transformaci on estacionaria, es un M A(13) con restricciones, de forma que solo contiene dos par ametros desconocidos, en vez de los trece de un M A(13) general. Lo que muestra que los modelos ARIM A(p, d, q ) (P, D, Q)s son modelos muy parsimoniosos. A continuaci on, se derivan las caracter sticas de algunos modelos sencillos bajo el supuesto de que Yt es una serie trimestral con comportamiento estacional y estacionaria, posiblemente tr as aplicar los operadores de diferencias oportunos. Modelo ARM A(0, 1) (0, 1)4 . Sea Yt un proceso estoc astico estacionario de media cero que sigue el modelo: Yt = (1 1 L)(1 4 L4 )at Yt = at 1 at1 4 at4 + 1 4 at5 que se puede considerar la transformaci on estacionaria del Modelo de L neas A ereas para una serie trimestral. La media es cero y sus autocovarianzas son: 0 = V (Yt ) = E [Yt 0]2 = E [at 1 at1 4 at4 + 1 4 at5 ]2
2 2 2 2 2 2 2 = (1 + 1 + 2 4 + 1 4 ) = (1 + 1 ) (1 + 4 )
1 = Cov (Yt Yt1 ) = E [(Yt 0) (Yt1 0)] = = E [(at 1 at1 4 at4 + 1 4 at5 )(at1 1 at2 4 at5 + 1 4 at6 )]
2 2 2 = (1 1 2 4 ) = 1 (1 + 4 )
2 = Cov (Yt Yt2 ) = E [(Yt 0) (Yt2 0)] = = E [(at 1 at1 4 at4 + 1 4 at5 ) (at2 1 at3 4 at6 + 1 4 at7 )] = 0 3 = Cov (Yt Yt3 ) = E [(Yt 0) (Yt3 0)] = = E [(at 1 at1 4 at4 + 1 4 at5 ) (at3 1 at4 4 at7 + 1 4 at8 )] = 1 4 2 4 = Cov (Yt Yt4 ) = E [(Yt 0) (Yt4 0)] = = E [(at 1 at1 4 at4 + 1 4 at5 ) (at4 1 at5 4 at8 + 1 4 at9 )]
2 2 = (4 1 4 ) 2 = 4 (1 + 1 ) 2
111
SARRIKO-ON 4/09
5 = Cov (Yt Yt5 ) = E [(Yt 0) (Yt5 0)] = = E [(at 1 at1 4 at4 + 1 4 at5 ) (at5 1 at6 4 at9 + 1 4 at10 )] = 1 4 2 k = Cov (Yt Ytk ) = E [(Yt 0) (Ytk 0)] = = E [(at 1 at1 4 at4 + 1 4 at5 ) (atk 1 atk1 4 atk4 + 1 4 atk41 )] = 0 Las funciones de autocovarianzas y la de autocorrelaci on son: Retardo k=0 k=1 k=2 k=3 k=4 k=5 k>5 FACV
2 )(1 + 2 ) 2 0 = (1 + 1 4 2 1 = 1 (1 + 2 4)
k > 5
FAC 0 = 1 1 = 1 2 1 + 1
2 = 0 3 = 1 4 2
2) 2 4 = 4 (1 + 1
2 = 0 3 = 4 = 5 = 1 4 2 )(1 + 2 ) (1 + 1 4 4 1 + 2 4 1 4 2 )(1 + 2 ) (1 + 1 4
5 = 1 4 2 k = 0
k = 0
Modelo ARM A(1, 0) (0, 1)4 . Sea Yt un proceso estoc astico estacionario que sigue el modelo: (1 L) Yt = (1 4 L4 ) at La media es cero y su varianza es: 0 = V (Yt ) = E [Yt 0]2 = E [ Yt1 + at 4 at4 ]2 = 2 0 + 2 (1 + 2 4 ) 2 4 E (Yt1 at4 ) Es necesario calcular la covarianza entre at4 e Yt1 : E (Yt1 at4 ) = E [ Yt2 + at1 4 at5 ] at4 = E (Yt2 at4 ) E (Yt2 at4 ) = E [ Yt3 + at2 4 at6 ] at4 = E (Yt3 at4 ) 112 Yt = Yt1 + at 4 at4
SARRIKO-ON 4/09
E (Yt3 at4 ) = E [ Yt4 + at3 4 at7 ] at4 = E (Yt4 at4 ) E (Yt4 at4 ) = E [ Yt5 + at4 4 at8 ] at4 = 2 Por lo que, E (Yt1 at4 ) = 3 2 y la varianza del proceso es: 0 =
4 2 (1 + 2 4 2 4 ) 1 2
El resto de las autocovarianzas vienen dadas por: 1 = Cov (Yt Yt1 ) = E [(Yt Yt1 )] = E [( Yt1 + at 4 at4 ) Yt1 ] = 0 4 3 2 2 = Cov (Yt Yt2 ) = E [(Yt Yt2 )] = E [( Yt1 + at 4 at4 ) Yt2 ] = 1 4 2 2 3 = Cov (Yt Yt3 ) = E [(Yt Yt3 )] = E [( Yt1 + at 4 at4 ) Yt3 ] = 2 4 2 4 = Cov (Yt Yt4 ) = E [(Yt Yt4 )] = E [( Yt1 + at 4 at4 ) Yt4 ] = 3 4 2 5 = Cov (Yt Yt5 ) = E [(Yt Yt5 )] = E [( Yt1 + at 4 at4 ) Yt5 ] = 4 k = Cov (Yt Ytk ) = E [(Yt Ytk )] = E [( Yt1 + at 4 at4 ) Ytk ] = k1 y las funciones de autocovarianzas y de autocorrelaci on son: Retardo k=0 k=1 k=2 k=3 k=4 k5 0 = FACV
4 2 (1 + 2 4 2 4 ) 1 2
k 5
FAC 0 = 1 1 = 4 3 2 0
1 = 0 4 3 2 2 = 1 4 2 2 3 = 2 4 2 4 = 3 4 2 k = k 1
4 2 2 0 4 2 3 = 2 0 2 = 1 4 = 3 k = k1 4 2 0
113
Sea Yt un proceso estoc astico estacionario que sigue el modelo: Yt = (1 1 L)(1 4 L4 8 L8 )at Yt = at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 La media es cero y sus autocovarianzas son: 0 = V (Yt ) = E [Yt 0]2 = E [at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ]2
2 2 2 2 2 2 2 2 2 2 2 = (1 + 1 + 2 4 + 8 + 1 4 + 1 8 ) = (1 + 1 ) (1 + 4 + 8 )
1 = Cov (Yt Yt1 ) = E [(Yt 0) (Yt1 0)] = = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 )
2 2 (at1 1 at2 4 at5 8 at9 + 1 4 at6 + 1 8 at10 )] = 1 (1 + 2 4 + 8 )
2 = Cov (Yt Yt2 ) = E [(Yt 0) (Yt2 0)] = = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ) (at2 1 at3 4 at6 8 at10 + 1 4 at7 + 1 8 at11 )] = 0 3 = Cov (Yt Yt3 ) = E [(Yt 0) (Yt3 0)] = = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ) (at3 1 at4 4 at7 8 at11 + 1 4 at8 + 1 8 at12 )] = 1 4 (1 8 ) 2 4 = Cov (Yt Yt4 ) = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ) (at4 1 at5 4 at8 8 at12 + 1 4 at9 + 1 8 at13 )] =
2 = (4 + 4 8 ) (1 + 1 ) 2
5 = Cov (Yt Yt5 ) = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ) (at5 1 at6 4 at9 8 at13 + 1 4 at10 + 1 8 at14 )] = 1 4 (1 8 ) 2 6 = Cov (Yt Yt6 ) = E [(Yt 0) (Yt6 0)] = = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ) (at6 1 at7 4 at10 8 at14 + 1 4 at11 + 1 8 at15 )] = 0 7 = Cov (Yt Yt7 ) = E [(Yt 0) (Yt7 0)] = = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ) (at7 1 at8 4 at11 8 at15 + 1 4 at12 + 1 8 at16 )] = 1 8 2 8 = Cov (Yt Yt8 ) = E [(Yt 0) (Yt8 0)] = = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 )
2 (at8 1 at9 4 at12 8 at16 + 1 4 at13 + 1 8 at17 )] = 8 (1 + 1 ) 2
114
An alisis de Series Temporales: modelos ARIMA 9 = Cov (Yt Yt9 ) = E [(Yt 0) (Yt9 0)] =
SARRIKO-ON 4/09
= E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ) (at9 1 at10 4 at13 8 at17 + 1 4 at14 + 1 8 at18 )] = 1 8 2 10 = Cov (Yt Yt10 ) = E [(Yt 0) (Yt10 0)] = = E [(at 1 at1 4 at4 8 at8 + 1 4 at5 + 1 8 at9 ) (at10 1 at11 4 at14 8 at18 + 1 4 at15 + 1 8 at19 )] = 1 8 2 k = Cov (Yt Ytk ) = E [(Yt 0) (Ytk 0)] = = E [(at 1 at1 4 at4 + 1 4 at5 ) (atk 1 atk1 4 atk4 + 1 4 atk41 )] = 0 k > 10
Las funciones de autocovarianzas y de autocorrelaci on son las siguientes: Retardo k=0 k=1 k=2 k=3 k=4 k=5 k=6 k=7 k=8 k=9 k>9 FACV
2 )(1 + 2 + 2 ) 2 0 = (1 + 1 4 8 2 2 1 = (1 )(1 + 2 4 + 8 )
FAC 0 = 1 1 = 1 2 1 + 1 1 4 (1 8 ) 2 ) (1 + 2 + 2 ) (1 + 1 4 8 4 (1 8 ) 2 1 + 2 4 + 8 1 4 (1 8 ) 2 ) (1 + 2 + 2 ) (1 + 1 4 8
2 = 0 3 = 1 4 (1 8 ) 2
2 ) ( + ) 2 4 = (1 + 1 4 4 8
2 = 0 3 = 4 = 5 =
5 = 1 4 (1 8 ) 2 6 = 0 7 = 1 4 2
2) 2 8 = 8 (1 + 1
6 = 0 7 = 8 = 9 = (1 + 1 4 2 1 ) (1 + 2 4 + 2 8)
8 2 1 + 2 4 + 8 (1 + 1 4 2 1 ) (1 + 2 4 + 2 8)
9 = 1 4 2 k = 0
k = 0
115
SARRIKO-ON 4/09
En las cuatro guras del gr aco 7.5 se muestran las funciones de autocorrelaci on de los siguientes modelos para la serie Yt estacionaria posiblemente tr as alguna transformaci on: (A) Yt = (1 + 0, 4 L) (1 + 0, 7 L4 ) at
(B ) (1 0, 7 L4 ) Yt = (1 + 0, 4 L) at (C ) (D) (1 0, 4 L) Yt = (1 + 0, 8 L4 ) at Yt = (1 + 0, 7 L 0, 2 L2 ) (1 + 0, 4 L4 ) at
Modelo A
0,8
Modelo B
0,6
0,6
0,4
0,4
0,2
0,2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,2
-0,2
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
0,8
Modelo C
0,8
Modelo D
0,6
0,6
0,4
0,4
0,2
0,2
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
Con los resultados derivados para los dos modelos presentados y la ayuda de la gura 7.5, se puede aproximar la estructura general de la FAC del proceso ARIM A estacional multiplicativo (7.4): alculo de la FAC puede llegar a ser muy laborioso, sobre todo si incluye parte autoa) El c rregresiva y los ordenes de los polinomios autorregresivos regular y/o estacional son altos. b) La FAC del proceso ARIM A multiplicativo es una mezcla de las FAC correspondientes a su estructura regular y a su estructura estacional por separado, con t erminos de interacci on porque ambas estructuras no son independientes. c) En los retardos m as bajos, k = 1, 2, ..., que recogen la estructura regular (observaciones contiguas) se reproduce la estructura marcada por los polinomios p (L) y q (L) de la parte regular. As , si es un M A(1), como en los modelos (A), (B) y (D), se tiene que 1 = 0 y luego el resto son cero. Mientras que si es un AR(1) como en el modelo (C) la parte regular es innita y decrece exponencialmente hacia cero. d) En los retardos estacionales, k = 2, 2s, 3s, ..., se representa la estructura estacional generada por los polinomios P (L) y Q (L). Para estructuras medias m oviles estacionales 116
SARRIKO-ON 4/09
como las de los modelos (A) y (C) de forma M A(1)4 , se observa que 4 = 0 y luego los siguientes coecientes estacionales son cero, es decir, 8 = 1 2 = . . . , = 0 son cero. Para el modelo (D), M A(2)4 , sin embargo, los dos primeros coecientes estacionales, 4 , 8 , son distintos de cero y el resto son cero. En los modelos con estacionalidad autorregresiva la FAC es innita para los retardos estacionales y decrece exponencialmente (ve ase modelo (B)). e) Alrededor de los retardos estacionales se observa la interacci on entre la estructura regular y la estacional que se maniesta en la repetici on a ambos lados de cada retardo estacional de la funci on de autocorrelaci on simple de la parte regular. En los modelos (A), (B) y (D) la parte regular es un M A(1), por lo que s1 = s+1 = 0. Si la parte regular fuera, en cambio, un M A(2), aparecer an a ambos lados de cada retardo estacional no nulo 2 coecientes distintos de cero. Por u ltimo, si la parte regular es un AR(1) como en el modelo (C), a ambos lados de los retardos estacionales se observa el decrecimiento exponencial impuesto por esta estructura autorregresiva. Not ese que para este modelo los coecientes 1 , 2 , 3 y4 recogen por un lado la estructura regular de la serie y la de interacci on entre la parte regular y la parte estacional. Para completar la descripci on de las caracter sticas de los procesos estacionales multiplicativos, se va a tratar la estructura de la funci on de autocorrelaci on parcial (FACP) de un modelo ARM A(p, q ) (P, Q)s : a) La FACP del proceso multiplicativo es una mezcla de las FACP correspondientes a su estructura regular y a su estructura estacional por separado, con un componente de interacci on porque ambas no son independientes. as bajos, k = 1, 2, ..., que recogen la estructura regular se reproduce la b) En los retardos m estructura marcada por los polinomios p (L) y q (L) de la parte regular. Si es un M A(q ) o un ARM A(p, q ) presentar a el decaimiento r apido y continuado caracter stico de estos modelos, mientras que si fuera un AR(p) se truncar a en el retardo p. c) En los retardos estacionales, k = s, 2s, 3s, ..., se representa la estructura estacional generada por los polinomios P (L) y Q (L). Si es un M A(Q)s o un ARM A(P, Q)s presentar a el decaimiento r apido y continuado caracter stico de estos modelos, mientras que si fuera un AR(P ) se truncar a en el retardo k = P s. d) Alrededor de los retardos estacionales se observa la interacci on entre la parte regular y la estacional que se maniesta como sigue: A la derecha de cada coeciente estacional, k = js + 1, js + 2, ..., se reproduce la FACP de la parte regular. Si el coeciente estacional es positivo la FACP regular aparece invertida, mientras que si es negativo la FACP regular aparece con su propio signo. A la izquierda de los coecientes estacionales, k = js 1, js 2, ..., se reproduce la FAC de la parte regular. 117
SARRIKO-ON 4/09
7.4.
La metodolog a para construir el modelo ARIM A(p, d, q )(P, D, Q)s apropiado para la serie estacional Y1 , Y2 , . . . , YT consta de las fases de Identicaci on, Estimaci on, Validaci on y Predicci on. Se ilustrar a el proceso de construcci on del modelo con una serie cl asica en la literatura, Pasajeros de L neas A ereas, serie mensual observada desde Octubre de 1949 a Septiembre de 1961. Al nal de esta secci on se propone como ejercicio al lector la modelizaci on de la serie trimestral ndice de producci on industrial austr aco. Los datos de ambas series se encuentran en el ap endice C. n. Identificacio Se trata de proponer el/los modelos ARIM A(p, d, q )(P, D, Q)s que puedan representar la evoluci on de la serie Yt . En primer lugar, se analiza la estacionariedad de la serie tanto en varianza como en media y, despu es, para la serie original o aquella transformaci on estacionaria de la misma, se seleccionn los ordenes (p, q ) de la estructura regular estacionaria y (P, Q)s de la estructura estacional estacionaria. Por u ltimo, se estudia la necesidad de incluir o no un t ermino independiente en el modelo. alisis de estacionariedad A. An El instrumento utilizado para estudiar la estacionariedad en varianza de la serie es su gr aco que permite observar si la variabilidad de la serie es homog enea a lo largo del tiempo o no. En las series con comportamiento estacional suele suceder que la variabilidad o amplitud del ciclo estacional crece con la tendencia. Este es el caso de la serie Pasajeros de L neas A ereas (Pasajeros) como muestra la gura de la izquierda del gr aco7.6. Como la serie original no es estacionaria en varianza, tomamos la transformaci on logar tmica que presenta una variabilidad homog enea en toda la muestra (ve ase la gura de la derecha del gr aco 7.6). Por lo tanto, consideramos que la serie Ln(P asajeros) es estacionaria en varianza. Gr aco 7.6: Pasajeros de L neas A ereas (datos originales y logaritmos).
700 6.6 6.4 600 6.2 6 500 5.8 5.6 5.4 5.2 5 200 4.8 100 1950 1952 1954 1956 1958 1960 4.6 1950 1952 1954 1956 1958 1960
400
300
El an alisis de la estacionariedad en media de una serie se lleva a cabo, en general, utilizando tres instrumentos: el gr aco, la funci on de autocorrelaci on y los contrastes de ra ces unitarias. 118
Ln(pasajeros)
Pasajeros
SARRIKO-ON 4/09
Inspeccionando en primer lugar el gr aco de la serie Ln(P asajeros)t , se observa que no es estacionaria en media porque no oscila en torno a un nivel constante. De hecho, no es estacionaria porque, por un lado, su tendencia (comportamiento a largo plazo) es creciente y, por otro lado, presenta un ciclo estacional sistem atico con los meses de verano en los valores m aximos del ciclo y los de invierno en los m nimos, con lo que la media de cada mes es distinta. Por otro lado, la gura superior del gr aco 7.7 muestra como el correlograma de la serie Ln(P asajeros) decrece lentamente hacia cero tanto en la estructura regular como en la estacional: not ese el lento decrecimiento para los tres retardos estacionales: 12, 24 y 36. Gr aco 7.7: Correlogramas de la Ln(Pasajeros) y algunas transformaciones.
FAC de Ln(pasajeros) 1 0.5 0 -0.5 -1 0 5 10 15 20 retardo 25 30 35 +- 1,96/T^0,5
FAC de D12 Ln(pasajeros) FACP de Ln(pasajeros) 11 0.5 0.5 00 -0.5 -0.5 -1 -1 00 5 5 10 10 15 15 20 20 retardo retardo 25 25 30 30 35 35 +- 1,96/T^0,5 1,96/T^0,5 +-
FAC de de D1D12 D12Ln(pasajeros) Ln(Pasajeros) FACP 1 1 0.5 0.5 0 0 -0.5 -0.5 -1 -1 0 0 5 5 10 10 15 15 20 20 retardo retardo 25 25 30 30 35 35 ++- 1,96/T^0,5 1,96/T^0,5
de D1 D12no Ln(Pasajeros) Podemos concluir que la serie en FACP logaritmos es estacionaria en media ni en la estructura regular 1 ni en la estacionalidad. Para buscar una transformaci o n de la serie que s sea esta+- 1,96/T^0,5 cionaria, se suele proceder a diferenciar la serie. Tomaremos, en primer lugar, diferencias 0.5 estacionales para solucionar el problema de la no estacionariedad estacional.
La gura izquierda del gr aco 7.8 muestra la serie (1 L12 ) Ln(P asajeros) . Ya no se
-0.5 -1 0 5 10 15
119
20 retardo 25 30 35
SARRIKO-ON 4/09
aprecia un comportamiento estacional sistem atico y no se observan diferencias de media por cada mes. Por otro lado, hay que se nalar tambi en que ha desaparecido el comportamiento tendencial creciente de la serie. Esto es debido a que el operador de diferencias estacional se puede escribir como: (1 L12 ) = (1 L) S12 (L) = (1 L) (1 + L + L2 + . . . + L11 ) lo que implica que al tomar diferencias estacionales, estamos eliminando, por un lado, la estacionalidad no estacionaria mediante el operador S12 (L) que suma las observaciones de cada a no, pero al estar aplicando a la vez el operador de diferencias regular, (1 L) , se est a actuando tambi en sobre la no estacionariedad en tendencia. Gr aco 7.8: Gr acos de algunas diferencias de la serie Ln(Pasajeros).
0.35 0.15
0.05
(1-L12) Ln(pasajeros)
0.2
0.15
0.1
-0.05
0.05 -0.1 0
La serie (1 L12 ) Ln(P asajeros) ya no crece sistem aticamente sino que parece oscilar en torno a un nivel pero con grandes rachas de observaciones por encima y por debajo del promedio. No parece el gr aco de una serie estacionaria en media sino el de una serie que va cambiando de nivel. El an alisis de su correlograma (ve ase la gura intermedia del gr aco 7.7) muestra un decrecimiento hacia cero que no es exponencial en la parte regular, aunque ya no hay problemas en los retardos estacionales. Este resultado parece indicar que la serie a un no es estacionaria en la parte regular. Por u ltimo, el contraste ADF para la hip otesis nula de existencia de ra z unitaria en la serie (1 L12 ) Ln(P asajeros) , proporciona el siguiente resultado (ve ase cuadro 7.1): tc = 2, 71 > DF0,05 = 2, 89 Por lo que no se rechaza la hip otesis nula de existencia de ra z unitaria. Concluimos que la serie (1 L12 ) Ln(P asajeros) no es estacionaria en la parte regular, por lo que se toma otra diferencia regular y se analiza la posible estacionariedad de la serie (1 L)(1 L12 ) Ln(P asajeros) . Se observa que el gr aco de esta transformaci on de la serie (ve ase la gura derecha del gr aco 7.8) oscila en torno a una media cero y que su correlograma (gura inferior del gr aco 7.7) decrece r apidamente hacia cero tanto en la estructura regular como en la estacional. 120
SARRIKO-ON 4/09
Contrastes aumentados de Dickey-Fuller, orden 12, para (1-L12) Ln(Pasajeros): tama~ no muestral 119 hip otesis nula de ra z unitaria: a = 1 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,015 valor estimado de (a - 1): -0,249907 Estad stico de contraste: tau c(1) = -2,70958 valor p asint otico 0,07233
Contrastes aumentados de Dickey-Fuller, orden 12, (1-L)(1-L12) Ln(Pasajeros): tama~ no muestral 118 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,006 valor estimado de (a - 1): -2,22523 Estad stico de contraste: tau nc(1) = -4,46639 valor p asint otico 8,807e-006 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,006 valor estimado de (a - 1): -2,22377 Estad stico de contraste: tau c(1) = -4,44332 valor p asint otico 0,0001
121
SARRIKO-ON 4/09
En lo que se reere al contraste de ra ces unitarias sobre la serie (1L)(1L12 ) Ln(P asajeros) , los resultados del cuadro 7.2 muestran que se: tc = 4, 44 < DF0,05 = 2, 89 Por lo que se rechaza la hip otesis nula de existencia de ra z unitaria. Podemos concluir que la serie (1 L)(1 L12 ) Ln(P asajeros) es estacionaria, por lo que la serie Ln(P asajeros) es integrada de orden 1 en la parte regular, d = 1 e integrada de orden 1 en la parte estacional, D = 1 . B. Selecci on de los ordenes (p, q ) y (P, Q) La elecci on del / los modelos apropiados para la serie estacionaria se realiza estudiando su funci on de autocorrelaci on simple y parcial (gr aco 7.9). El gr aco de la funci on de autocorrelaci on simple muestra que el primer coeciente regular signicativamente distinto de cero y que en la parte estacional tambi en solo el primer coeciente, 12 , es signicativamente distinto de cero. En la funci on de autocorrelaci on parcial se observa que el primer coeciente es signicativamente distinto de cero, aunque se aprecia una estructura general exponencial decreciente, y que en la parte estacional el coeciente p12 es signicativamente distinto de cero y decrecen. En principio, como tanto en la parte regular como en la estacional observamos que el primer coeciente de la FAC es distinto de cero y el resto no son signicativos proponemos una estructura medias m oviles de orden 1 para ambas, osea, ARM A(0, 1)(0, 1)12 . Observ ese como a ambos lados de los coecientes estacionales de la FAC se reproduce la estructura de la parte regular. Por u ltimo, para acabar de identicar el/los modelos que pueden haber generado la serie Pasajeros de l neals a ereas, es preciso decidir si es necesario incluir o no un t ermino independiente. El gr aco de la serie (gura derecha del gr aco 7.9) parece sugerir que la media de esta transformaci on estacionaria es cero y que, por lo tanto, no hay que a nadir ninguna constante. Para conrmar esta conclusi on, contrastamos la hip otesis nula de que la media de la serie Zt = 12 Ln(P asajeros)t es cero, con el estad stico: t= Z Z
Para calcular este estad stico se utilizan los siguientes datos sobre la serie estacionaria (1 L)(1 L12 )Ln(P asajeros) Estad sticos principales, usando las observaciones 1949:10 - 1963:09 para la variable (1-L) (1-L12) Ln(Pasajeros) (131 observaciones v alidas) Media 0, 000290880 Desv. T p. 0, 0458483 Mediana 0, 000000 C.V. 157, 619 122 M nimo 0, 141343 Asimetr a 0, 0381906 M aximo 0, 140720 Exc. de curtosis 1, 14778
SARRIKO-ON 4/09
As , se obtiene: 0, 04582 2 Z 1 + 2 12 ) = (1 + 2 0, 34 + 2 0, 387) = 0, 0000395 = V (Z ) (1 + 2 (131 1) t = 0, 000291 = 0, 04628 < 2 t0,025 (130) 0, 006287
Por lo tanto, no se rechaza la hip otesis nula y no se incluye un t ermino independiente en el modelo.
En la etapa de Identicaci on se ha propuesto el siguiente modelo candidato a haber generado la serie Pasajeros de l neas a ereas : ARIM A(0, 1, 1)(0, 1, 1)12 : 12 Ln(P asajeros)t = (1 L) (1 L12 ) at
n. Estimacio El modelo estimado seg un el output obtenido con Gretl que se presenta a continuaci on es: 12 Ln(P asajeros)t = (1 0, 4018 L) (1 0, 5569 L12 ) at
123
SARRIKO-ON 4/09
Modelo 1: estimaciones ARIMA utilizando las 131 observaciones 1950:111961:09 Variable dependiente: (1 L)(1 L12 )Ln(P asajeros) Desviaciones t picas basadas en el Hessiano Coeciente 1 1 0,401823 0,556937 Desv. t pica 0,0896453 0,0731050 estad stico t 4,4824 7,6183 0,000290880 0,0458483 0,00100838 0,00134810 244,696 M odulo 2, 4887 1, 7955 Frecuencia 0, 0000 0, 0000 valor p 0,0000 0,0000
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 2, 4887 1, 7955 Imaginaria 0, 0000 0, 0000
MA MA (estacional)
Ra z Ra z
1 1
n. Validacio En esta etapa se trata de comprobar de que el modelo propuesto se ajusta bien a los datos y reproduce la estructura de comportamiento de la serie. Comenzando por el an alisis de los coecientes, comprobaremos, en primer lugar, si son o no estad sticamente signicativos. Contrastes de signicatividad individual: H0 : = 0 Ha : = 0 : , H0 : = 0 Ha : = 0 0, 265 0, 0699
Se rechaza H0 : = 0 para un nivel de signicaci on del 5 %. El modelo propuesto es estacionario porque es un medias m oviles nito y es invertible porque el m odulo de las trece ra ces medias m oviles est a fuera del c rculo unidad. 124
SARRIKO-ON 4/09
Comenzamos el an alisis de los residuos con el an alisis de la gura izquierda del gr aco 7.10 en la que se observa que los residuos oscilan en torno a cero con una variabilidad bastante homog enea. Por otro lado, el correlograma de los residuos muestra que ning un coeciente de autocorrelaci on est a fuera de la regi on cr tica, por lo que ninguno es signicativamente distinto de cero. Gr aco 7.10: Serie: 12 Ln(P asajeros). Estimaci on y diagn osticos.
0.15
0.1
0.05
Residuo
-0.05
-0.1
+- 1,96/T^0,5
0 El estad stico de Box-Ljung, Q = 43, 75 < 2 otesis nula de 0,05 , por lo que no se rechaza la hip que los 36 primeros coecientes de autocorrelaci on son conjuntamente cero. -0.5
Estad sticos principales, usando las -1 observaciones 1949:10 - 1963:09 0 5 10 v 15 20 25 para la variable uhat1 (131 observaciones alidas)
retardo
30
35
En lo que se reere al contraste de Jarque-Bera de Normalidad, se tiene que: JB = 32, 46 > 2 0,05 (2) = 5, 99 Por lo tanto, podemos concluir que los residuos se comportan como un ruido blanco si bien no parecen seguir una distribuci on normal.
125
SARRIKO-ON 4/09
Ejercicio 7.1. Indice de Producci on Industrial austr aco. Dados los siguientes gr acos y tablas, construye del modelo ARIM A(p, d, q )(P, D, Q)s apropiado para la serie trimestral del Indice de producci on industrial austriaco (IPI) para la que se cuenta con datos desde el primer trimestre de 1975 hasta el cuarto de 1988 (los datos originales se encuentran en el ap endice C). n. Identificacio A. An alisis de estacionariedad. Pregunta: Es la serie estacionaria en varianza? Busca la transformaci on estacionaria. Gr aco 7.11: Serie: Indice de Producci on Industrial (1975:I - 1988:IV)
140 4.9 4.8 4.7 4.6 110 4.5
Ln(IPI)
130
120
100
IPI
4.4 4.3
90
80 4.2 70 4.1 4 3.9 1976 1978 1980 1982 1984 1986 1988 1976 1978 1980 1982 1984 1986 1988
60
50
IPI
Ln(IPI)
Pregunta: Es la serie estacionaria en media? Busca la transformaci on estacionaria. Gr aco 7.12: Gr acos de diferencias de la serie Ln(IPI).
0.16 0.08 0.14 0.06
0.12
0.04
0.08
0.1
(1-L4) Ln(IPI)
0.02
0.06
-0.02
0.04
-0.04
0.02
-0.06
-0.08 1976
1978
1980
1982
1984
1986
1988
(1
L4 )Ln(IP I ) 126
(1 L)(1
L4 )Ln(IP I )
SARRIKO-ON 4/09
ln(IP I )
1 1 0.5 0.5 0 0 -0.5 -0.5 -1 -1 0 0 2 2 4 4 6 6
8 retardo
10
12
14
16
4 ln(IP I )
1 1 0.5 0.5 0 0 -0.5 -0.5 -1 0 -1 0 2 4 6 2 4 6
8 retardo 8 retardo
10 10
12 12
14 14
16 16
4 ln(IP I )
1 0.5 0 -0.5 -1 0 2 4 6
8 retardo 8 retardo
10 10
12 12
14 14
16 16
127
8 retardo 10 12 14 16
SARRIKO-ON 4/09
Contrastes aumentados de Dickey-Fuller, orden 4, para (1 L4 ) Ln(IPI): tama~ no muestral 47 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,022 valor estimado de (a - 1): -0,0473233 Estad stico de contraste: tau nc(1) = -0,799128 valor p asint otico 0,3701 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: 0,005 valor estimado de (a - 1): -0,353237 Estad stico de contraste: tau c(1) = -2,39611 valor p asint otico 0,1428
Contrastes aumentados de Dickey-Fuller, orden 4, para (1 L)(1 L4 ) Ln(IPI): tama~ no muestral 46 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,022 valor estimado de (a - 1): -1,64814 Estad stico de contraste: tau nc(1) = -3,70536 valor p asint otico 0,0001 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,022 valor estimado de (a - 1): -1,65542 Estad stico de contraste: tau c(1) = -3,65382 valor p asint otico 0,004838
128
An alisis de Series Temporales: modelos ARIMA B. Selecci on de los ordenes (p, q ) y (P, Q), y del t ermino independiente.
SARRIKO-ON 4/09
Estad sticos principales, usando las observaciones 1975:1 - 1988:4 para la variable D1D4 LnIPI (51 observaciones v alidas) Media 0, 00113181 Desv. T p. 0, 0260694 Mediana 0, 00316331 C.V. 23, 0334 M nimo 0, 0795702 Asimetr a 0, 0446416 M aximo 0, 0788784 Exc. de curtosis 1, 73581
129
Un investigador ha propuesto los siguientes modelos para la serie IPI: Modelo A : Modelo B : (1 L) 4 ln IP It = (1 L4 ) at 4 ln IP It = (1 L) (1 L4 ) at
Pregunta: Est as de acuerdo? Por qu e? Con los resultados que se presentan a continuaci on, escribe los modelos estimados. Modelo A: estimaciones ARIMA utilizando las 51 observaciones 1976:21988:4 Variable dependiente: (1 L)(1 L4 ) Ln(IPI) Variable Coeciente Desv. t pica Estad stico t valor p 1 1 0,353517 0,868740 0,131443 0,177300 2,6895 4,8998 0,00171446 0,000401395 124,237 Imaginaria 0, 0000 0, 0000 M odulo 2, 8287 1, 1511 Frecuencia 0, 5000 0, 0000 0,0072 0,0000
media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 2, 8287 1, 1511
AR MA (estacional)
Ra z Ra z
1 1
Modelo B: estimaciones ARIMA utilizando las 51 observaciones 1976:21988:4 Variable dependiente: (1 L)(1 L4 ) Ln(IPI) Variable 1 1 Coeciente 0,296070 0,855573 Desv. t pica 0,115774 0,161817 Estad stico t 2,5573 5,2873 0,00184053 0,000413225 123,660 Imaginaria 0, 0000 0, 0000 M odulo 3, 3776 1, 1688 Frecuencia 0, 0000 0, 0000 valor p 0,0105 0,0000
media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real 3, 3776 1, 1688
MA MA (estacional)
Ra z Ra z
1 1
130
SARRIKO-ON 4/09
Con los resultados mostrados en los gr acos y tablas del cuadro 7.4 contesta a las siguientes pregunta: Pregunta: Se ajustan los modelos a los datos? Qu e modelo seleccionar as para predecir?
Cuadro 7.4: Serie: 4 ln IP It . Diagn ostico. Modelo ARIM A(1, 1, 0)(0, 1, 1)4
Residuos de la regresin (= L_IPI observada estimada) 0.08 0.08
0.06
0.06
0.04
0.04
0.02
0.02
residuo
residuo
0.02
0.02
0.04
0.04
0.06 1976
1978
1980
1982
1984
1986
1988
0.06 1976
1978
1980
1982
1984
1986
1988
FAC de los residuos 1 0.5 0 -0.5 -1 0 2 4 6 8 retardo FACP de los residuos 1 0.5 0 -0.5 -1 0 2 4 6 8 retardo 10 12 14 16 +- 1,96/T^0,5 1 0.5 0 -0.5 -1 0 2 4 6 10 12 14 16 +- 1,96/T^0,5 1 0.5 0 -0.5 -1 0 2 4 6
8 retardo
10
12
14
16
8 retardo
10
12
14
16
Q(24) = 16,465
Q(24) = 18,00
131
SARRIKO-ON 4/09
Modelo ARIM A(1, 1, 0)(0, 1, 1)4 Estad sticos principales, usando las observaciones 1975:1 - 1988:4 para la variable uhatA (51 observaciones v alidas) Media 0, 00171446 Desv. T p. 0, 0208678 Mediana 0, 00158269 C.V. 12, 1716 M nimo 0, 0430086 Asimetr a 0, 706177 M aximo 0, 0740437 Exc. de curtosis 1, 47041
Modelo ARIM A(0, 1, 1)(0, 1, 1)4 Estad sticos principales, usando las observaciones 1975:1 - 1988:4 para la variable uhatB (51 observaciones v alidas) Media 0, 00184053 Desv. T p. 0, 0211028 Mediana 0, 000717917 C.V. 11, 4656 M nimo 0, 0479773 Asimetr a 0, 588185 M aximo 0, 0747304 Exc. de curtosis 1, 67900
132
SARRIKO-ON 4/09
Cuadro 7.5: Pasajeros de l neas a ereas (Octubre 1949 - Septiembre 1961) A no 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 Ene. 129 135 163 181 235 227 269 313 348 348 396 461 Febr. 121 125 172 183 229 234 270 318 355 363 420 472 Marzo 135 149 178 218 243 264 315 374 422 435 472 535 Abril 148 170 199 230 264 302 364 413 465 491 548 622 Mayo 148 170 199 242 272 293 347 405 467 505 559 606 Jun. 136 158 184 209 237 259 312 355 404 404 463 508 Jul. 119 133 162 191 211 229 274 306 347 359 407 461 Agos. 104 114 146 172 180 203 237 271 305 310 362 390 Sept. 118 140 166 194 201 229 278 306 336 337 405 432 Oct. 112 115 145 171 196 204 242 284 315 340 360 417 Nov. 118 126 150 180 196 188 233 277 301 318 342 391 Dic. 132 141 178 193 236 235 267 317 356 362 406 419
133
SARRIKO-ON 4/09
Cuadro 7.6: Indice de producci on industrial (1o trimestre 1975 - 4o trimestre 1988) Fecha 1975:1 1975:2 1975:3 1975:4 1976:1 1976:2 1976:3 1976:4 1977:1 1977:2 1977:3 1977:4 IPI 54,1 59,5 56,5 63,9 57,8 62,0 58,5 65,0 59,6 63,6 60,4 66,3 Fecha 1978:1 1978:2 1978:3 1978:4 1979:1 1979:2 1979:3 1979:4 1980:1 1980:2 1980:3 1980:4 IPI 60,6 66,8 63,2 71,0 66,5 72,0 67,8 75,6 69,2 74,1 70,7 77,8 Fecha 1981:1 1981:2 1981:3 1981:4 1982:1 1982:2 1982:3 1982:4 1983:1 1983:2 1983:3 1983:4 IPI 72,3 78,1 72,4 82,6 72,9 79,5 72,6 82,8 76,0 85,1 80,5 89,1 Fecha 1984:1 1984:2 1984:3 1984:4 1985:1 1985:2 1985:3 1985:4 1986:1 1986:2 1986:3 1986:4 IPI 84,8 94,2 89,5 99,3 93,1 103,5 96,4 107,2 101,7 109,5 101,3 112,6 Fecha 1987:1 1987:2 1987:3 1987:4 1988:1 1988:2 1988:3 1988:4 IPI 105,5 115,4 108,0 129,9 112,4 123,6 114,9 131,0
134
C1. Sea Yt un proceso estoc astico tal que Yt = a + b X , para todo t, donde a, b son constantes y X una variable aleatoria con media y varianza 2 . Demuestra que el proceso estoc astico Yt es estacionario en covarianza. Cu al es la funci on de autocovarianzas del proceso Yt ? C2. Supongamos que la funci on de autocovarianzas del proceso Yt no depende de t, pero sin embargo, la media del proceso viene dada por E (Yt ) = 4t. Es el proceso Yt estacionario?. Considera ahora el proceso Zt = 10 4t + Yt , es estacionario? C3. Considera el proceso estoc astico Zt = X + Yt , donde Yt es un proceso estoc astico estacionario en covarianza y X es una variable aleatoria independiente de Yt . Suponiendo conocidas la media y varianza de X y la media y la funci on de autocorrelaci on simple de Yt , obt en la media y la funci on de autocorrelaci on simple del proceso Zt . astico estacionario con funci on de autocovarianzas k . Demuestra C4. Sea Yt un proceso estoc que: Zt = Yt = Yt Yt1 es estacionario. Zt = 2 Yt es estacionario. Zt = 4 Yt es estacionario. en general, Zt =
N j =0 aj Ytj
es estacionario.
Qu e conclusi on general puedes obtener de los resultados obtenidos en los cuatro apartados anteriores? C5. Demuestra que el proceso M A() siguiente: Yt = at + c (at1 + at2 + . . . ) 135
SARRIKO-ON 4/09
donde c es una constante, no es estacionario. Demuestra tambi en que las primeras diferencias del proceso: Wt = Yt Yt1 son un proceso MA(1) estacionario. Busca la funci on de autocorrelaci on simple de Wt . C6. Considera el proceso MA estacionario Yt = (1 L)at y sea Zt = Yt Yt1 . Es el proceso Zt estacionario? Es la varianza del proceso Zt mayor o menor que la del proceso Yt ? Cu al es la funci on de autocovarianzas del proceso diferenciado?. C7. Considera el proceso AR estacionario (1 L)Yt = at y sea Zt = Yt Yt1 . Es el proceso Zt estacionario? Es la varianza del proceso Zt mayor o menor que la del proceso Yt ? Cu al es la funci on de autocovarianzas del proceso diferenciado?. C8. Si un analista presenta el siguiente modelo AR(4) para una muestra dada: (1 + 0,48L + 0,22L2 + 0,14L3 + 0,05L4 )Yt = at Podr as sugerirle un modelo m as parsimonioso? Por qu e? C9. Contesta a las siguientes preguntas: C omo se obtienen las funciones de autocorrelaci on simple y parcial te oricas? C omo se obtienen las funciones de autocorrelaci on simple y parcial estimadas o muestrales? oricas? Por qu e? Las facs y facp estimadas se corresponden exactamente con las te C10. Sea el proceso Yt = + at + at1 , donde es una constante, demuestra que la f.a.c.s. de Yt no depende de . on que incluye los valores pasados y presente de la serie C11. Si IT es un conjunto de informaci T (1) es la predicci que queremos predecir, Yt , y Y on optima basada en el citado conjunto de informaci on IT , de forma que el error de predicci on es eT (1). Por qu e esperas que eT (1) sea ruido blanco? C12. Comenta las siguientes frases: Un modelo ARIM A(p, d, q ) bien construido tiene autocorrelaciones residuales que son todas cero. Un modelo ARIMA estimado con residuos que est an signicativamente autocorrelacionados no es apropiado. 136
SARRIKO-ON 4/09
8.2.
Problemas
Problema 1. Contamos con la siguiente serie temporal estacionaria: 1,5 0,8 0,9 1,2 0,5 1,3 0,8 1,6 0,8 1,2 0,5 0,9 1,1 1,1 0,6 1,2
En base al gr aco de las observaciones, sugiere un valor aproximado para el coeciente de autocorrelaci on muestral de orden 1, 1 . Dibuja Yt contra Yt+1 e Yt contra Yt+2 y, en base a estos gr acos, sugiere valores aproximados para 1 y 2 . k , k = 0, 1, 2, 3, 4, 5 Comprueba si tus sugerencias eran apropiadas calculando Problema 2. Considera los siguientes procesos estoc asticos: 1. 2. 3. 4. 5. 6. 7. Yt = 1, 05 Yt1 0, 5 Yt2 + at Yt = 1, 03 Yt1 + at Yt = 0, 7 Yt1 + at 0, 45 at1 Yt = at + 0, 7 at1 0, 5 at2 Yt = at 1, 05 at2 Yt = 0, 09 Yt2 + at 0, 3 at1 Yt = 0, 6 Yt1 + at + 0, 4 at2
Qu e modelo ARM A(p, q ) son? Son estacionarios e invertibles? Por qu e? Problema 3. Sean los modelos AR(1) siguientes: (a) (b) Yt = 0,8 Yt1 + at Yt = 0,5 Yt1 + at
2 a =2
Son estacionarios? Son invertibles? Calcula las autocovarianzas, 0 , 1 , . . . , 5 . Calcula los coecientes de autocorrelaci on simple, 1 , 2 , . . . , 5 . Repres entalos gr acamente. Calcula los coecientes de autocorrelaci on parcial, p1 , p2 , p3 , p4 , p5 . Repres entalos gr acamente. Calcula los pesos 1 , 2 , . . . , 5 del modelo en forma M A() en que, si es posible, puede transformarse los dos modelos AR(1) dados. 137
SARRIKO-ON 4/09
Problema 4. Considera el proceso AR(1) siguiente: Yt = 20 + 0,6 Yt1 + at Es estacionario? Es invertible? Calcula la media y la funci on de autocovarianzas del proceso. Dibuja la funci on de autocorrelaci on te orica. Si Y50 = 21 , es de esperar que Y51 sea mayor o menor que la media?
2 a =4
Problema 5. Sea at un proceso ruido blanco. Encuentra la funci on de autocorrelaci on simple de los siguientes procesos lineales: (1) Yt = at + 0, 4 at1 (2) Yt = at + 2, 5 at1
Crees que estos dos modelos lineales se pueden distinguir en base a observaciones de {Yt }?. Problema 6. Sean los modelos M A(1) siguientes: 1. 2. Yt = at 0, 9 at1 Yt = at + 0, 5 at1
2 a =4
Son estacionarios? Son invertibles? Calcula las autocovarianzas, 0 , 1 , . . . , 5 . Calcula los coecientes de autocorrelaci on simple, 1 , 2 , . . . , 5 . Repres entalos gr acamente. Calcula los pesos 1 , 2 , . . . , 5 del modelo en forma AR() en que, si es posible, puede transformarse los dos modelos M A(1) dados.
Problema 7. Considera el proceso M A(1) siguiente: Yt = 5 + at + 0, 2 at1 Es estacionario? Es invertible? Calcula la media y la funci on de autocovarianzas del proceso. Dibuja la funci on de autocorrelaci on te orica. Si Y100 es mayor que la media del proceso, es de esperar que Y101 sea tambi en mayor? 138 2 = 3
An alisis de Series Temporales: modelos ARIMA Problema 8. Sean los modelos AR(2) siguientes: 1. 2. 3. 4. Yt = 0, 6 Yt1 + 0, 3Yt2 + at Yt = 1, 3 Yt1 0, 4Yt2 + at Yt = 1, 2 Yt1 0, 8Yt2 + at Yt = 0, 8 Yt1 0, 5Yt2 + at 2 = 3
SARRIKO-ON 4/09
Son estacionarios? Son invertibles? Cual es la estructura de la funci on de autocorrelaci on simple y de la funci on de autocorrelaci on parcial? Calcula las autocovarianzas, 0 , 1 , . . . , 5 . Calcula los coecientes de autocorrelaci on simple, 1 , 2 , . . . , 5 . Repres entalos gr acamente. Calcula los pesos 1 , 2 , . . . , 5 del modelo en forma M A() en que, si es posible, puede transformarse los cuatro modelos AR(2) dados.
Problema 9. Considera el proceso AR(2) siguiente: Yt = 10 + 0, 8 Yt1 0, 2 Yt2 + at Es estacionario? Es invertible? on de autocovarianzas. Dibuja la funci on de autocorrelaci on te ori Calcula su media y funci ca. Si Y45 = 12, es de esperar que Y46 sea mayor o menor que la media? 2 = 1
Problema 10. Sean los modelos M A(2) siguientes: 1. 2. 3. 4. Yt = at 0, 4 at1 + 1, 2 at2 Yt = at + 0, 7 at1 0, 2 at2 Yt = at 1, 3 at1 + 0, 4 at2 Yt = at 0, 1 at1 + 0, 21 at2
2 a =2
Son estacionarios? Son invertibles? Cual es la estructura de la funci on de autocorrelaci on simple y de la funci on de autocorrelaci on parcial? Calcula las autocovarianzas, 0 , 1 , . . . , 5 . Calcula los coecientes de autocorrelaci on simple, 1 , 2 , . . . , 5 . Repres entalos gr acamente. Calcula los pesos 1 , 2 , . . . , 5 del modelo en forma AR() en que, si es posible, puede transformarse los cuatro modelos M A(2) dados.
139
SARRIKO-ON 4/09
Problema 11. Sean los modelos ARM A(1, 1) siguientes: (a) (b) Yt = 0, 9 Yt1 + at + 0, 8 at1 Yt = 0, 6 Yt1 + at 0, 6 at1 2 = 5
Son estacionarios? Son invertibles? Calcula las autocovarianzas, 0 , 1 , . . . , 5 . Calcula los coecientes de autocorrelaci on simple, 1 , 2 , . . . , 5 . Repres entalos gr acamente. Pueden simplicarse estos modelos? Calcula los pesos 1 , 2 , . . . , 5 del modelo en forma AR() en que, si es posible, puede transformarse los dos modelos ARM A(1, 1) dados. Calcula los pesos 1 , 2 , . . . , 5 del modelo en forma M A() en que, si es posible, puede transformarse los dos modelos ARM A(1, 1) dados.
Problema 12. Supongamos que la serie Yt ha sido generada como sigue: Yt = 0,2Yt1 + 0,48Yt2 + at + 0,6at1 0,16at2 e proceso lineal sigue la serie Yt ? Es estacionario? Es invertible? Qu Est a el modelo sobreparametrizado? En caso armativo, escribe un modelo equivalente con menos par ametros.
Problema 13. Sea el modelo ARMA(2,2) siguiente: Yt = 0, 9 Yt1 0, 2 Yt2 + at 1, 3 at1 + 0, 4 at2 Puede simplicarse este modelo? Problema 14. Encuentra un proceso invertible tal que: 0 = 1 1 = 0,49 k = 0 k > 1
Problema 15. Indica a qu e tipo de modelo ARM A(p, q ) se puede asociar cada uno de los siguientes pares de funciones de autocorrelaci on simples y parciales te oricas, explicando por qu e.
140
SARRIKO-ON 4/09
F.AC.P.
0,300
0,3
0,100
0,1
1)
1 -0,100
10
11
12
13
14
15
16
17
18
19
20 -0,1
10
11
12
13
14
15
16
17
18
19
20
-0,300
-0,3
-0,500
-0,5
-0,700
-0,7
0,5
0,5
0,4
0,4
0,3
0,3
0,2
0,2
0,1
0,1
2)
0 1 -0,1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,2
-0,2
-0,3
-0,3
-0,4
-0,4
-0,5
-0,5
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
3)
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
0,8
0,800
0,6
0,600
0,4
0,400
0,2
0,200
4)
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0,000 1 -0,200 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,400
-0,6
-0,600
-0,8
-0,800
0,9
0,900
0,7
0,700
0,5
0,500
0,3
0,300
0,1
0,100
5)
-0,1
10
11
12
13
14
15
16
17
18
19
20
-0,100
10
11
12
13
14
15
16
17
18
19
20
-0,3
-0,300
-0,5
-0,500
-0,7
-0,700
-0,9
-0,900
0,6
0,600
0,4
0,400
0,2
0,200
6)
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0,000 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,2
-0,200
-0,4
-0,400
-0,6
-0,600
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
7)
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1
-1
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
8)
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 -0,2 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
141
SARRIKO-ON 4/09
Problema 16. Considera la siguiente secuencia de coecientes de autocorrelaci on: 1 = 0, 75 2 = 0, 56 3 = 0, 42 4 = 0, 31 5 = 0, 23 De qu e proceso ARM A(p, q ) pueden provenir estos coecientes? (considera s olo valores bajos de p y q ). Problema 17. Las funciones de autocorrelaci on simple y parcial estimadas para una serie temporal de 110 obeservaciones son las siguientes: k 1 2 3 4 5 k -0,38 -0.16 0.12 -0.08 -0.06 p k -0.38 -0.37 -0.20 -0.18 -0.03
Calcula la desviaci on t pica asint otica para cada coeciente estimado, k y p k bajo el supuesto de que se trata de una realizaci on que procede de un ruido blanco. Qu e modelo ARM A(p, q ) ha podido generar la serie de datos?
Problema 18. La funci on de autocorrelaci on estimada para una serie Yt de 144 observaciones es: k rk 0 1 1 0.84 2 0.57 3 0.43 4 0.34 5 0.25 6 0.18
Sugiere un modelo ARM A(p, q ) posible para Yt . Estima el/los par ametros del modelo propuesto (Nota: Recuerda las expresiones para la funci on de autocorrelaci on simple en funci on de los par ametros del modelo tanto para los modelos AR como MA.) Suponiendo que el error de predicci on un periodo hacia adelante cometido al predecir Y6 con informaci on hasta el momento t = 5 es de 0,36 y si Y7 = 1 , obt en la predicci on para Y8 .
Problema 19. A partir de una muestra de 64 observaciones se ha ajustado el siguiente modelo: (1 0,8L) Yt = (1 + 0,6L) a t Las funciones de autocorrelaci on simple y parcial de los residuos, a t , vienen dadas por: 142
An alisis de Series Temporales: modelos ARIMA k k p k 1 0.390 0.390 2 0.160 0.030 3 0.054 -0.033 4 0.021 0.025 5 -0.004 0.026
SARRIKO-ON 4/09
A la vista de la informaci on anterior, consideras aceptable el modelo ajustado? En caso contrario, cual podr a ser la reformulaci on del modelo? Problema 20. Se ha estimado con una muestra de 110 observaciones de la variable Yt el siguiente modelo: Yt = at + 0, 5 at1 + 0, 4 at2 + 18 Se cuenta con la siguiente informaci on acerca de at e Yt : Y106 = 20 Y107 = 21 Y108 = 19 Y109 = 19 Y110 = 17 2 = 4
Obt en la predicci on de Yt por punto para los periodos 111, 112 y 113. Calcula los errores cuadr aticos medios de predicci on. Obt en la predicci on de Yt por intervalo para los periodos 111, 112 y 113. Suponiendo que se dispone de la informaci on adicional: Y111 = 17, actualiza la predicci on de los periodos 112 y 113.
= 9.
Supongamos que se cuenta con las siguientes observaciones: Y100 = 8, 9 Y99 = 9 Y98 = 9 Y97 = 9, 6
Predice Y101 , Y102 , Y103 , Y104 tanto por punto como por intervalo. Si se dispone de la informaci on adicional: Y101 = 9, 7, actualiza la predicci on de los periodos 102, 103 y 104. Problema 22. Para predecir la serie Yt se han utilizado dos modelos diferentes: Yt = 20 + 0, 5 Yt1 + vt Yt = 50 + at + 0, 6 at1 donde at y vt son procesos ruido blanco con media cero. En el momento t = 20, las predicciones de ambos modelos para Y21 han sido de 110 y 90 respectivamente. Qu e predicciones para Y22 proporcionar an ambos modelos con informaci on hasta t = 21, sabiendo que Y21 = 100? 143
SARRIKO-ON 4/09
Problema 23. El economista del servicio de planicaci on del Ayuntamiento quiere predecir los ingresos mensuales por impuestos en base a los datos recogidos los u ltimos 100 meses, Yt . Analizando el correlograma estimado de la serie Yt , propone los siguientes modelos: Yt = 90 + 0, 7 Yt1 + at Yt = 300 + at + 0, 62 at1 + 0, 5 at2 Sabiendo que Y100 = 280 y a98 = 0,5, a99 = 2, a100 = 10 Obt en las predicciones por punto de Y101 , . . . , Y110 con ambos modelos. Representa ambas predicciones y compara sus caracter sticas. Cu al es la estructura de la funci on de predicci on cuando para ambos modelos? Sabiendo que los verdaderos valores para Y son: t yt 101 295 102 310 103 302 104 275 105 320 106 310 107 290 108 283 109 315 110 303 (8.1) (8.2)
Representa los errores de predicci on cometidos con ambos m etodos de predicci on. Qu e modelo proporciona las mejores predicciones?. Utiliza para compararlos aquellos criterios de precisi on de la predicci on que te parezcan m as convenientes?
Problema 24. La serie temporal representada en el gr aco corresponde a una variable observada trimestralmente desde el primer trimestre de 1966 al tercer trimestre de 2003. Se desea
15
10
-5
-10
predecir la evoluci on de la variable a lo largo de 2004. Bas andose en la informaci on proporcionada por los correlogramas simple y parcial estimados, un experto ha propuesto el siguiente modelo para predecir Yt : Yt = + at + 1 at1 + 2 at2 + at N ID(0, 2 )
SARRIKO-ON 4/09
Calcula las predicciones por punto para los cuatro primeros meses de 2004, con los siguientes datos adicionales: Y145 = 23,62 Y146 = 23,18 Y147 = 24,41
Problema 25. Una empresa tiene datos de sus ventas anuales y propone el siguiente modelo: Vt = 100 + yt donde Vt son las ventas del trimestre t- esimo, son las ventas medias e yt es un proceso estoc astico. Las correlaciones estimadas para los valores de y con datos de los u ltimos a nos son: k k 0 1 1 0,8 2 0,66 3 0,50 4 0,40 5 0,33 6 0,25 7 0,2
siendo la media de y durante el periodo muestral cero. El estad stico de la compa n a sugiere que el modelo apropiado para la y es: yt = 0, 8 yt1 + at donde at es un ruido blanco con media cero. Est as de acuerdo con su decisi on? Por qu e? Dado que las ventas de a no 2008 han sido 213, predice las ventas para el a no 2009. 145
SARRIKO-ON 4/09
Problema 26. Sea Yt = 7 + t + Xt , donde Xt es un proceso estacionaria de media cero y funci on de autocovarianzas k : Cual es la funci on media de Yt ? Cual es la funci on de autocovarianzas de Yt ? Es Yt estacionario? Es Yt estacionario?
Problema 27. Sea una serie anual, Yt que est a generada por el siguiente proceso estoc astico: Yt = a + b t + c t2 + at donde at es ruido blanco y a, b, c son constantes. Es el proceso Yt estacionario en covarianza? Es el proceso Yt estacionario en covarianza? e operador de diferencias se ha de aplicar para convertir al proceso Yt en estacionario?. Qu Discute la invertibilidad del proceso resultante. Existe alg un otro m etodo para transformar al proceso Yt en estacionario?
Problema 28. Sea Yt una serie mensual estacional con factores estacionales constantes, St = St12 y at una serie de perturbaciones estacionarias. Si suponemos que la serie Yt consta de una tendencia global lineal y una estacionalidad aditiva, el modelo apropiado es: Yt = a + b t + St + at Es la serie Yt estacionaria? Es la serie Yt estacionaria? Demuestra que la aplicaci on del operador 12 a la serie Yt la convierte en estacionaria. Si suponemos que la serie Yt consta de una tendencia global lineal y una estacionalidad multiplicativa, el modelo apropiado es: Yt = (a + bt) St + at Convierte el operador 12 en estacionaria a la serie Yt ? Si no es as encuentra el operador que lo hace.
146
An alisis de Series Temporales: modelos ARIMA Problema 29. Para cada uno de los siguientes procesos estoc asticos: (1) (2) (3) (4) Yt = 0,7 Yt1 + at Yt = 5 + 0,7 Yt1 + at Yt = Yt1 + at 0,7 at1 Yt = 5 + Yt1 + at 0,7at1 at RBN (0, 9) at RBN (0, 9) at RBN (0, 9)
SARRIKO-ON 4/09
at RBN (0, 9)
on que lo convierta en esta Es Yt estacionario? Si no lo es , existe alguna transformaci cionario? Qu e modelo ARIM A(p, d, q ) sigue? Comenta las caracter sticas de cada uno de los procesos por separado. Compara las caracter sticas de los distintos procesos en las siguientes l neas: Funciones de autocorrelaci on Evoluci on de las series generadas por los distintos modelos. Simula una serie temporal de tama no 50, 100, 200. Comenta los resultados.
Problema 30. Considera los siguientes procesos: 1. (1 0, 99L) (1 L) Yt = (1 0, 5L) at 2. (1 L)2 Yt = at 0, 81at1 + 0, 38at2 0, 2L2 ) at 0, 72L2 ) a
t
3. 1 0, 6L) Yt = (1 1, 2L + 4. (1 1, 1L + 0, 8L2 ) Yt
= (1 1, 5L +
Es el proceso Yt estacionario? Es invertible? Si no son estacionarios busca una transformaci on que los convierta en estacionarios. Qu e modelo ARIM A(p, d, q ) son?
Problema 31. Sean los modelos siguientes: Yt = 0,1Yt1 + 0,9Yt2 + at Yt = 0,3Yt1 + 0,7Yt2 + at at1 Yt = Yt1 + at Analiza las condiciones de estacionariedad e invertibilidad del proceso Yt . En el caso de que no sea estacionario, puede hacerse alguna transformaci on para convertirlo en estacionario? Qu e modelo ARIM A(p, d, q ) son? 147
A. Escribe estos siguientes modelos en forma ARIM A(p, d, q ) y en forma de ecuaci on en diferencias: 1. 2. 3. 4. 5. (1 L)(1 L) Yt = at (1 L)2 Yt = (1 L) at (1 L) Yt = (1 L) at (1 L)Yt = (1 1 L 2 L2 ) at Yt = (1 L2 ) at
B. Escribe los siguientes modelos en t erminos del operador de retardos L : 1. 2. 3. 4. 5. 6. 7. 8. ARIM A(1, 1, 1) ARIM A(0, 2, 1) ARIM A(2, 0, 2) Yt = (1 1 2 ) + 1 Yt1 + 2 Yt2 + at Yt = (1 1 ) + 1 Yt1 1 at + at Yt = Yt1 1 at1 2 at2 + at Yt = 2 Yt1 Yt2 1 at1 + at Yt = Yt1 + 1 (Yt1 Yt2 ) + 2 (Yt2 Yt3 ) + at
Problema 33. Sea el modelo ARIM A(2, 1, 0) siguiente: (1 1 L 2 L2 ) Yt = at Es el proceso Yt estacionario? Es el proceso Wt = Yt estacionario? Qu e proceso lineal sigue la serie Wt ? Calcula la media y la funci on de autocorrelaci on simple te orica del proceso Wt . Problema 34. A partir de una muestra de 100 datos se ha ajustado el siguiente modelo: Yt = (1 0, 324L) a t Las funciones de autocorrelaci on simple y parcial de los residuos vienen dadas por: k k p k 1 -0,508 -0,508 2 0,013 -0,329 3 -0,032 -0,220 4 0,015 -0,143 5 0,043 -0,093
A la vista de la informaci on anterior, consideras aceptable el modelo ajustado? En caso contrario, cual podr a ser la reformulaci on del modelo? 148
An alisis de Series Temporales: modelos ARIMA Problema 35. Considera los siguientes modelos: 1. (1 1 L 2 L2 ) Yt = (1 1 L) at
SARRIKO-ON 4/09
2 = 3,3 1 = 1,4, 2 = 0,7, T = 100, Y99 = 53, Y100 = 56, a 100 = 1,4, a 1 = 0,3, = 50
2. Yt = (1 1 L 2 L2 ) at
2 = 2,5 = 100, 1 = 0,7, 2 = 0,5, |mu T = 100, a 99 = 1,3, a 100 = 2, ,6, a 1 = 0,3, = 50
3. (1 1 L)(1 L) Yt = at
2 =8 1 = 0,7, T = 100, Y99 = 217, Y100 = 232, a
4. (1 L) Yt = (1 1 L) at
2 = 6,7 1 = 0,5, a T = 100, Y100 = 28, 100 = 0,7, a
5. (1 1 L) Yt = (1 1 L 2 L2 ) at 1 = 0,6 T = 100, Y100 = 103, a 100 = 1,2, a 99 = 0,3, 2 = 2,5 1 = 0,8, 2 = 0,3, a 6. (1 1 L) ( Yt ) = at 1 = 0,8 T = 100, Y100 = 1, Y99 = 1, 5, a 100 = 0,005, a 99 = 0,3, = 0, 2 7. (1 1 L) (1 L) Yt = (1 1 L) at 1 = 0,8 1 = 0,6 T = 100, Y100 = 23, Y99 = 18, a 100 = 0,2, a 99 = 0,3, Para cada uno de ellos, obt en las predicciones por punto y por intervalo para Problema 36. Sea el modelo estimado: (1 + 0,6L)(1 L) Yt = (1 0,5L) at + 0,8
2 a =1
= 1, 2, 3, 4, 5.
Dado Y79 = 40, Y80 = 41, Y81 = 41 y a80 = 0,2, predice Yt para los periodos 81, 82 y 83. Calcula los errores cuadr aticos medios de predicci on y establece una banda de conanza del 95 % para la predicci on. Suponiendo que Y81 = 41, actualiza la predicci on de los periodos 82 y 83.
149
SARRIKO-ON 4/09
Problema 37. Contamos con 221 datos para analizar la evoluci on temporal de la tasa de cambio de Hungr a, T ipot . Con ayuda de los gr acos y la informaci on siguientes, contesta a las preguntas: Es estacionaria la serie T ipot ? Por qu e? Es preciso tomar alguna diferencia a la serie T ipot para que sea estacionaria? Qu e modelo ARMA(p,q) propones para la serie que has elegido como estacionaria?
Estad sticos principales, usando las observaciones 1 - 221 para la variable Tipo (221 observaciones v alidas) Media 19, 9115 Desv. T p. 3, 24292 Mediana 21, 0973 C.V. 0, 162867 M nimo 10, 5407 Asimetr a 0, 756369 M aximo 24, 8438 Exc. de curtosis 0, 312477
Estad sticos principales, usando las observaciones 1 - 221 para la variable DTipo (220 observaciones v alidas) Media 0, 0174748 Desv. T p. 0, 810736 Mediana 0, 00373450 C.V. 46, 3946 M nimo 2, 4866 Asimetr a 0, 0622331 M aximo 2, 31328 Exc. de curtosis 0, 357541
Contrastes aumentados de Dickey-Fuller, orden 2, para Tipo: tama~ no muestral 218 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,002 valor estimado de (a - 1): -0,00164723 Estad stico de contraste: tau nc(1) = -0,602228 valor p asint otico 0,4568 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,001 valor estimado de (a - 1): -0,0248391 Estad stico de contraste: tau c(1) = -1,43424 valor p asint otico 0,567 150
SARRIKO-ON 4/09
Contrastes aumentados de Dickey-Fuller, orden 2, para (1-L) Tipo: tama~ no muestral 217 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,001 valor estimado de (a - 1): -1,1125 Estad stico de contraste: tau nc(1) = -8,98227 valor p asint otico 1,124e-016 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,001 valor estimado de (a - 1): -1,11455 Estad stico de contraste: tau c(1) = -8,974 valor p asint otico 5,749 e-016
26
2.5 2 1.5
24
22 1
20
0.5 0 -0.5 -1
Tipo cambio
18
16
10
FAC de Tipo 1 0.5 0 -0.5 -1 0 5 10 retardo FACP de Tipo 1 0.5 0 -0.5 -1 0 5 10 retardo 15 20 +- 1,96/T^0,5 1 0.5 0 -0.5 -1 0 5 15 20 +- 1,96/T^0,5 1 0.5 0 -0.5 -1 0 5
15
20
+- 1,96/T^0,5
10 retardo
15
20
151
SARRIKO-ON 4/09
Problema 38. Los siguientes datos corresponden a la serie Yt a la que se ha ajustado el siguiente modelo: 2 Yt = 0,5 + at at1 + 0,5at2 a = 0,04 t Yt 96 172 97 169 98 164 99 168 100 172
Obt en las predicciones para Y101 , Y102 , Y103 , Y104 , Y105 , Y106 . Cu al es el comportamiento de la funci on de predicci on conforme ?
Calcula los Errores Cuadr aticos Medios de Predicci on y obt en los intervalos de conanza del 95 % para las predicciones. Suponiendo que Y101 = 174, actualiza las predicciones para Y102 , Y103 , . . . , Y106 . Representa gr acamente la serie, las predicciones obtenidas con informaci on hasta T = 100 y las actualizadas con informaci on hasta T = 101.
Problema 39. Con una muestra de 110 observaciones se ha estimado el siguiente modelo: (1 0,5L) Yt = (1 + 0,7L) at Tambi en se dispone de la siguiente informaci on: t yt 106 66 107 65 108 64 109 63 110 68
Expresa el modelo en la forma de ecuaci on en diferencias nitas. Calcula las predicciones de Yt para los periodos 111, 112, 113, 114 y 115, sabiendo que a110 = 0,5. Representa la funci on de predicci on. Cu al es su estructura cuando Expresa el modelo en la forma M A().
2 = 2. Calcula los errores cuadr aticos medios de predicci on sabiendo que a
Calcula las predicciones por intervalo. Suponiendo que Y121 = 70 actualiza las predicciones.
152
SARRIKO-ON 4/09
Problema 40. El director del Servicio de Estudios de una Divisi on de la Uni on Europea le ha pedido a uno de sus economistas que prediga la evoluci on de la poblaci on de la Uni on Europea hasta el a no 2000. Con los datos de los u ltimos 100 a nos (1896-1995), el economista estima el siguiente modelo: Pt = (1 0,7L + 1,2L2 )at Qu e modelo ARIM A(p, d, q ) ha propuesto el economista? Bas andote en este modelo obt en las predicciones de la poblaci on hasta el a no 2000 por punto y por intervalo, sabiendo que los u ltimos datos de la poblaci on y de la predicci on obtenida con un a no de antelaci on son: Valor real de Poblaci on Pt 105 109 111 113 Predicci on hecha el mes anterior Pt1 (1) 104 110.5 110 113.5
sticas del modelo propuesto, c omo se Dadas las predicciones obtenidas y las caracter comporta la poblaci on a largo plazo?
Problema 41. Supongamos que el modelo: Yt = (1 0,5L)et se utiliza para predecir una serie que de hecho ha sido generada por el modelo: Yt = (1 0,9L + 0,2L2 )at (8.4) (8.3)
Obt en la funci on de autocorrelaci on simple del error de predicci on un periodo hacia adelante et , obtenidos del modelo ARIM A(0, 1, 1). on de autocorrelaci on puede utilizarse para identicar un modelo Comenta como esta funci para la serie et , llev andonos a la identicaci on de un ARIM A(0, 1, 2) para la serie Yt .
Problema 42. El servicio de estudios de un Banco quiere predecir el ndice de Bolsa de New York mediante un modelo ARIM A(p, d, q ). Para ello cuenta con 78 observaciones diarias del ndice de bolsa (Yt = DowJonest ). Con la informaci on presentada en los gr acos y tablas siguientes: 153
SARRIKO-ON 4/09
Estad sticos principales, usando las observaciones 1 - 78 para la variable DowJones (78 observaciones v alidas) Media 115, 683 Desv. T p. 5, 50606 Mediana 113, 755 C.V. 0, 0475960 M nimo 108, 540 Asimetr a 0, 246937 M aximo 124, 140 Exc. de curtosis 1, 6263
Estad sticos principales, usando las observaciones 1 - 78 para la variable (1-L) DowJones (77 observaciones v alidas) Media 0, 133636 Desv. T p. 0, 426950 Mediana 0, 130000 C.V. 3, 19487 M nimo 0, 770000 Asimetr a 0, 521255 M aximo 1, 53000 Exc. de curtosis 0, 939981
Estad sticos principales, usando las observaciones 1 - 78 para la variable (1 L)2 DowJones (76 observaciones v alidas) Media 0, 00684211 Desv. T p. 0, 447974 Mediana 0, 0100000 C.V. 65, 4731 M nimo 1, 2100 Asimetr a 0, 112599 M aximo 1, 23000 Exc. de curtosis 0, 141083
Contrastes aumentados de Dickey-Fuller, orden 2, para (1-L) DowJones: tama~ no muestral 74 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,018 valor estimado de (a - 1): -0,386798 Estad stico de contraste: tau nc(1) = -2,95062 valor p asint otico 0,00309 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,008 valor estimado de (a - 1): -0,46437 Estad stico de contraste: tau c(1) = -3,17663 valor p asint otico 0,02141 Contrastes aumentados de Dickey-Fuller, orden 2, para (1 L)2 DowJones: tama~ no muestral 73 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: -0,021 valor estimado de (a - 1): -2,14076 Estad stico de contraste: tau nc(1) = -8,09521 valor p asint otico 2,654e-014
154
SARRIKO-ON 4/09
124
122
120
118
116
114
112
110
15
20
108 0 10 20 30 40 50 60 70 80
0.5
1.5
0
(1-L)(1-L) Indice Dow Jones
0.5
-0.5
-0.5
-1
-1 10 20 30 40 50 60 70 80
-1.5 10 20 30 40 50 60 70
FAC de (1-L) DowJones 1 0.5 0 -0.5 -1 0 5 10 retardo FACP de (1-L) DowJones 1 0.5 0 -0.5 -1 0 5 10 retardo 15 20 +- 1,96/T^0,5 1 0.5 0 -0.5 -1 0 5 15 20 +- 1,96/T^0,5 1 0.5 0 -0.5 -1 0 5
15
20
+- 1,96/T^0,5
10 retardo
15
20
Analiza la estacionariedad de la serie Yt , es decir, es la serie Yt estacionaria en media o es preciso hacer alguna transformaci on para convertirla en estacionaria? Por qu e? Qu e modelo (o modelos) ARM A(p, q ) propones para la serie estacionaria? Por qu e?
155
SARRIKO-ON 4/09
El economista consultado por el servicio de estudios, bas andose en la misma informaci on de la que t u dispones, ha identicado los siguientes modelos: Modelo 1 Modelo 2 Modelo 3 Modelo 4 Yt AR(1) Yt ARM A(1, 1) 2 Yt M A(1) 2 Yt ARM A(1, 1)
Discute si te parecen razonables los cuatro modelos que el propone. Analiza los resultados que obtiene en la estimaci on de cada uno de los modelos. Se ajustan los modelos bien a los datos? Cu al de los cuatro modelos estimados elegir as para predecir el futuro de la serie Yt ? Por qu e?
Modelo 1: estimaciones ARIMA utilizando las 77 observaciones 278 Variable dependiente: (1 L)DowJones Desviaciones t picas basadas en el Hessiano Coeciente 1 0,499168 Desv. t pica 0,100102 estad stico t 4,9866 0,133636 0,426950 0,0619386 0,149332 36,190 M odulo 2, 0033 Frecuencia 0, 0000 valor p 0,0000
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra z 1 2, 0033 0, 0000 Imaginaria
0.5
residuo
0.5
0
0 -0.5
0.5
-1 0
1 10 20 30 40 50 60 70 80
15
20
1 0.5 0
+- 1,96/T^0,5
156
-0.5 -1 0 5 10 retardo 15 20
SARRIKO-ON 4/09
Modelo 2: estimaciones ARIMA utilizando las 77 observaciones 278 Variable dependiente: (1 L)DowJones Desviaciones t picas basadas en el Hessiano Coeciente 1 1 0,850965 0,526265 Desv. t pica 0,138465 0,254785 estad stico t 6,1457 2,0655 0,133636 0,426950 0,0341779 0,143363 34,689 M odulo 1, 1751 1, 9002 Frecuencia 0, 0000 0, 0000 valor p 0,0000 0,0389
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra z MA Ra z
1.5
1 1
1, 1751 1, 9002
1
0.5
+- 1,96/T^0,5
0.5
residuo
0
0.5
1.5 10 20 30 40 50 60 70 80
Modelo 3: estimaciones ARIMA utilizando las 76 observaciones 378 -0.5 2 Variable dependiente: (1 L ) DowJones -1 0 10 15 Desviaciones t picas basadas en el 5 Hessiano
retardo
20
Coeciente 1 0,715732
estad stico t 6,3153 0,00684211 0,447974 0,00664944 0,150368 36,201 M odulo 1, 3972 Frecuencia 0, 0000
valor p 0,0000
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real MA Ra z 1 1, 3972 0, 0000 Imaginaria
157
SARRIKO-ON 4/09
Residuos de la regresin (= DowJones observada estimada) 1.5
+- 1,96/T^0,5
0.5
residuo
0.5
20
1.5 10 20 30 40 50 60 70
+- 1,96/T^0,5
Modelo 4: estimaciones ARIMA utilizando las 76 observaciones 378 0 Variable dependiente: (1 L)2 DowJones -0.5 Desviaciones t picas basadas en el Hessiano
-1
estad retardo stico t 1,7123 10,2427 0,00684211 0,447974 0,00467602 0,144924 34,848
10
15
20
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra z MA Ra z 1 1, 1917 0, 0000 1 4, 0349 0, 0000 Imaginaria
1 0.5 0
+- 1,96/T^0,5
residuo
0.5
-0.5
1
1.5
158
SARRIKO-ON 4/09
Problema 43. Disponemos de 250 observaciones, desde octubre de 1978 hasta julio de 1999, para analizar y predecir la serie de tipo de inter es a largo plazo (Yt = Interest . Analiza la estacionariedad en media de la serie Yt en base a los gr acos y la informaci on presentada. Es preciso hacer alguna transformaci on a la serie Yt para que sea estacionaria? Por qu e? Prop on razonadamente uno (o varios) modelos ARIM A(p, d, q ) para la serie estacionaria. Estad sticos principales, usando las observaciones 1978:10 - 1999:07 para la variable Interes (250 observaciones v alidas) Media 11, 4799 Desv. T p. 3, 41329 Mediana 11, 2492 C.V. 0, 297328 M nimo 5, 35361 Asimetr a 0, 0707997 M aximo 17, 2649 Exc. de curtosis 1, 0438
Estad sticos principales, usando las observaciones 1978:10 - 1999:07 para la variable (1-L) Interes (249 observaciones v alidas) Media 0, 0477041 Desv. T p. 0, 0360135 Mediana 0, 0499643 C.V. 0, 754934 M nimo 0, 130352 Asimetr a 0, 287116 M aximo 0, 0475899 Exc. de curtosis 0, 273057
Contrastes aumentados de Dickey-Fuller, orden 2, para (1-L) Interes: tama~ no muestral 246 hip otesis nula de ra z unitaria: a = 1 contraste sin constante modelo: (1 - L)y = (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: 0,057 valor estimado de (a - 1): -0,124977 Estad stico de contraste: tau nc(1) = -3,81022 valor p asint otico 0,0001392 contraste con constante modelo: (1 - L)y = b0 + (a-1)*y(-1) + ... + e Coef. de autocorrelaci on de primer orden de e: 0,034 valor estimado de (a - 1): -0,453041 Estad stico de contraste: tau c(1) = -7,90484 valor p asint otico 9,481e-013
159
SARRIKO-ON 4/09
12
10
FAC de Interes 1 0.5 0 -0.5 -1 0 5 10 retardo FACP de Interes 1 0.5 0 -0.5 -1 0 5 10 retardo 15 20 +- 1,96/T^0,5 1 0.5 0 -0.5 -1 0 5 15 20 +- 1,96/T^0,5 1 0.5 0 -0.5 -1 0 5
(1-L) Interes
Interes
15
20
+- 1,96/T^0,5
10 retardo
15
20
Problema 44. Siguiendo con los datos del Problema anterior, el economista de un servicio de estudios ha propuesto los siguientes modelos para el tipo de inter es: Modelo 1 Modelo 2 Modelo 3 Yt ARIM A(1, 1, 0) Yt ARIM A(1, 1, 1) Yt ARIM A(0, 1, 2)
Te parecen apropiados los tres modelos propuestos? Por qu e? Bas andote en los resultados de la estimaci on de los tres modelos (tablas y correlogramas simple y parcial de los residuos) que se presentan a continuaci on, cu al de los tres modelos elegir as para predecir el futuro de la serie Yt ?
160
SARRIKO-ON 4/09
Modelo 1: estimaciones ARIMA utilizando las 249 observaciones 1978:111999:07 Variable dependiente: (1 L)Interes Variable const 1 Coeciente 0,0471185 0,589559 Desv. t pica 0,00447042 0,0515826 Estad stico t 10,5401 11,4294 0,0477041 0,0360135 0,000160249 0,000847352 527,108 M odulo 1, 6962 Frecuencia 0, 0000 valor p 0,0000 0,0000
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra z
0.08
Imaginaria 0, 0000
1, 6962
0.06
0.04
Residuo Modelo 1
0.02
0
-0.02
-0.5
-0.04 -0.06
-0.5 Modelo 2: estimaciones ARIMA utilizando las 249 observaciones 1978:111999:07 -1 L)Interes Variable dependiente: (1 0 5
Variable const 1 1
Estad stico t 9,2591 11,1340 2,1885 0,0477041 0,0360135 0,000220568 0,000831130 529,499 M odulo 1, 4297 6, 2016 Frecuencia 0, 0000 0, 0000
10 retardo
15
20
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real AR Ra z MA Ra z 1 6, 2016 0, 0000 1 1, 4297 0, 0000 Imaginaria
161
SARRIKO-ON 4/09
0.08
0.06
0.04
Residuo Modelo 2
0.02
-0.02
-0.5
-0.04 -0.06
Modelo 3: estimaciones ARIMA utilizando las0 249 observaciones 1978:111999:07 -0.5 Variable dependiente: (1 L)Interes
-1
Variable const 1 2
0 Desv. t pica
20
Media de la var. dependiente D.T. de la variable dependiente media de las innovaciones Varianza de las innovaciones Log-verosimilitud Real MA Ra z Ra z
0.08
1 2
0, 4121 0, 4121
0.06
FAC de Residuo Modelo 3 1 0.5 0 -0.5 -1 0 5 10 retardo FACP de Residuo Modelo 3 1 0.5 0 -0.5 +- 1,96/T^0,5 15 20 +- 1,96/T^0,5
0.04
Residuo Modelo 3
0.02
-0.02
-0.04
a98,9 -1 = 0,018
0 5
a98,10 = 0,023
10 retardo 15 20
predice el tipo de inter es a largo plazo desde Noviembre de 1998 hasta Diciembre de 1999. Calcula los errores cuadr aticos medios de predicci on Hacia donde tiende la predicci on del tipo de inter es a largo plazo? 162
An alisis de Series Temporales: modelos ARIMA Problema 45. Supongamos que la serie Yt sigue el siguiente modelo: (1 1 L 2 L2 ) Yt = at Qu e modelo sigue la serie Yt ?. Es la serie Yt estacionaria? Es estacionaria la serie Zt = Yt ? Qu e modelo sigue?
SARRIKO-ON 4/09
en la funci on de autocorrelaci on simple te orica para la serie Zt , k , k = 1, 2, . . . . Explica Obt cual ser a la estructura de la funci on de autocorrelaci on parcial te orica. En base a una muestra de 100 observaciones para Zt , hemos obtenido que los dos primeros coecientes de autocorrelaci on simple estimados son r1 = 0,93 y r2 = 0,81. Estima los par ametros del modelo para Zt . Supongamos que las u ltimas observaciones de la serie Yt son: t Yt 95 145 96 141 97 142 98 148 99 150 100 143
y que el error de predecir Y100 con informaci on hasta t = 99 es -0.5. Bas andote en el modelo para Yt con par ametros estimados: Predice los valores de Yt para t = 101, 102, 103, 104, 105, 106. Cual es el comportamiento de la funci on de predicci on a largo plazo, es decir, cuando .? Calcula los errores cuadr aticos medios de predicci on, sabiendo que la varianza del error de predicci on un periodo hacia adelante es 2. Si sabemos que Y101 = 155, actualiza el resto de las predicciones.
Problema 46. Compara los modelos estacionales siguientes: 1. Yt = (1 1 L)(1 1 L12 ) at 2. Yt = (1 1 L 12 L12 13 L13 ) at Se puede distinguir entre las funciones de autocorrelaci on del modelo (1) y del modelo (2)? Problema 47. Con una muestra de 120 observaciones se ha estimado el siguiente modelo: (1 0,5L)(1 + 0,7L4 )(1 L) Yt = (1 0,5L4 ) at Tambi en se dispone de la siguiente informaci on: t Yt Se pide: 163 110 56 111 59 112 58 113 60 114 63 115 66 116 65 117 64 118 63 119 68
SARRIKO-ON 4/09
Expresar el modelo en la forma de ecuaci on en diferencias nitas. Expresar el modelo en la forma M A(). Efectuar la predicci on de Yt para los periodos 121, 122, 123, 124 y 125. Calcular los errores cuadr aticos medios de predicci on y las predicciones por intervalo. Suponiendo que Y121 = 70, actualiza las predicciones para los periodos 122, 123, 124 y 125.
Problema 48. Deriva la funci on de autocorrelaci on te orica para los siguientes procesos: 1. Yt = (1 0, 8L12 )(1 + 0, 6L) at 2. Yt = (1 0, 9L4 )(1 0, 7L) at
Problema 49. Cu ales de los siguientes modelos estimados son estacionarios e invertibles? 1. 2. 3. (1 0, 8L)(1 L4 )Yt = (1 0, 8L4 ) a t Yt = (1 0, 4L12 0,3L24 ) (1 0, 5L2 ) a t (1 1, 2L + 0, 5L2 )(1 0, 5L12 )(1 L)Yt = a t
Problema 50. Escribe los siguientes modelos en t erminos del operador de retardos L y en forma de ecuaci on en diferencias: 1. 2. 3. ARIM A(0, 1, 1)(0, 1, 1)s ARIM A(1, 1, 0)(0, 1, 1)4 ARIM A(2, 0, 0)(0, 0, 1)12 4. 5. 6. ARIM A(0, 2, 2)(2, 1, 2)12 ARIM A(0, 1, 0)(0, 1, 1)7 ARIM A(1, 1, 1)(1, 1, 1)4
164
Lecturas recomendadas
vez (1993). M etodos de Predicci on en Econom a. Volumen II. Ed. Ariel. a) Aznar, A. y F.J. Tr Barcelona. b) Box, G.E.P. y G.M. Jenkins (1970). Time series analysis: forecasting and control. San Francisco, Holden Day. c) Franses, P.H. (1998). Time series models for business and economic forecasting. Cambridge University Press. Cambridge. d) Pe na, D. (2005). An alisis de series temporales. Alianza editorial. Madrid. e) Uriel, E. (2000). Introducci on al an alisis de series temporales. Editorial AC. Madrid.
165