CAPITULO 6
Modelos ARMA para la Componente Aleatoria
6.1. Introduccion
En los modelos de descomposicion Yt = Tt + St + t, t = 1, 2, . . . se estima t y se
determina si es o no ruido blanco mediante las pruebas Ljung-Box y Durbin-Watson. En
caso de encontrar que t no es ruido blanco, el siguiente paso es modelar esta componente
mediante tres posibles modelos
1. Medias Moviles de orden q,MA(q).
2. Autoregresivos de orden q, AR(p).
3. Medias Moviles Autoregresivos,ARMA(p, q).
Los tres modelos varan en su capacidad de capturar distintos tipos de
comportamiento de autoregresion. Comenzaremos dando las caractersticas
de las funciones de autocorrelacion y cantidadades relacionadads con cada
modelos, estas no tiene nada que ver con datos ni estimacion pero son fun-
damentales para desarrollar una comprension basica de las propiedades de
los modelos necesarios para llevar a cabo pronosticos inteligentes. Diebold
[1999, pag. 129]
89
90
6.2. Procesos de Medias Moviles de orden q
Definicion 6.2.1 (El Operador de Rezago). Se denota por L (lag, en ingles) y es tal que
L(Yt) = Yt1. Es decir, L opera sobre una serie rezagandola un perodo hacia atras. De
igual manera L(Yt1) = Yt2, luego L(L(Yt)) = L2(Yt) = Yt2 y en general L
p(Yt) =
Ytp. Se define tambien L0 = I , el operador identidad.
Un polinomio de grado p en el operador L se define como el operador formado por una
combinacion lineal de potencias de L
BP (L) = 0 + 1L+ 2L2 + + pLp, (6.1)
tal que
BP (L)(Yt) = (0 + 1L+ 2L2 + + pLp)Yt,
=
pj=0
jLjYt,
=
pj=0
jYtj ,
= 0Yt + 1Yt1 + 2Yt2 + + pYtp.
Definicion 6.2.2 (Proceso MA(q)). Se dice que una serie Yt sigue un procesoMA(q), q =
1, 2, . . . de media movil de orden q, si se cumple que
Yt = t + 1t1 + + qtq , t Z, (6.2)
donde t RB(0, 2). La expresion con el operador L es, si se define el polinomio
q(L) = 1 + 1L+ + qLq, (6.3)
entonces la ecuacion (6.2) se expresa
Yt = q(L)(t). (6.4)
6.2.1. Propiedades
1. E(Yt) = 0
2. V ar(Yt) = (1 + 21 + + 2q)2
91
luego V ar(Yt) > V ar(t), en general.
3. Cov(Yt, Yt+k) = R(k), donde
R(K) =
2
qkj=0
jj+k , k < q + 1
0, k q + 1(6.5)
con 0 = 1.
4. UnMA(q) siempre es un proceso estacionario con fac, (k) = R(k)R(0)
.
Interpretacion de 3. Un MA(q) es un proceso debilmente correlacionado. Se puede ver
como una alternativa a un Ruido Blanco completamente incorrelacionado.
Ejemplo 6.2.1. Sea Yt MA(2) dado por
yt = t 1t1 + 2t2, t i.i.d. N (0, 9), t Z,
con
1 = 0.4, 2 = 0.4, 2 = 9,
entonces
R(0) =(1 + 0.42 + 0.42
)9 = 11.88
R(1) = 9
21j=0
jj+1 = 9(01 + 12)
= 9( 0.4 + (0.4)(0.4))= 5.04
R(2) = 9
22j=0
jj+2 = 9(02) = 9(0.4) = 3.6.
Entonces la FAC es
(0) = 1, (1) = 5.0411.88
= 0.42, (2) = 3.611.88
(3) = (4) = = 0
92
0 1 2 3 4
0.4
0.2
0.00.2
0.40.6
0.81.0
True ACF
Lag
True A
CF
Figura 6.1: Funcion de Autocorrelacion.
Ejercicio 6.2.1. Encuentre la FAC de
1. Yt = t 0.5t1 0.5t2.
2. Yt = t + 0.6t1 0.3t2 0.1t3.
Conclusion De acuerdo con (6.5), si la fac muestral de una serie Yt termina abruptamente
puede tratarse de unMA(q). Por ejemplo, en la siguiente grafica 6.2 sera factible unmodelo
MA(3).
0 5 10 15
0.0
0.4
0.8
Lag
ACF
Series MA.3
Figura 6.2: FAC muestral de unMA(3).
Definicion 6.2.3 (Funcion de Autocorrelacion Parcial (facp)). Suponga que (Yt, t Z)es estacionaria. La facp es una funcion de k, (k), k = 1, 2, . . . definida por
1. (1) = (1)
2. (k) = Corr(1, k) donde
1 = Y1 E(Y1|Y2, . . . , Yk1)k = Yk E(Yk|Y2, . . . , Yk1), k = 2, . . .
93
Y la facp muestral se define por (k)
1. (1) = (1)
2. (2) : se regresa Yt sobre Yt1 y Yt2 tal que Yt = 21Yt1 + 22Yt2 + t entonces
(2) = 22
3. (k) : se regresa Yt sobre Yt1, . . . , Ytk tal que Yt = k1Yt1 + +kkYtk + tentonces (k) = kk
La facp de un proceso Yt MA(q) se puede encontrar si se asume la condicion deinvertibilidad para unMA(q)
6.2.2. Condicion de Invertibilidad del Proceso MA(q)
Definicion 6.2.4. Dado un procesoMA(q), Yt = q(L)(t) donde q(L) = 1+1L+2L2+
+ qLq, entonces considerando el polinomio en z C, q(z) = 1 + 1z + + qzq ysus q races (z1, z2, . . . , zq) C, es decir, valores z C tales que q(z) = 0, se dice que elproceso Yt es invertible si se cumple
|zj| > 1, j = 1, . . . , q, (6.6)
o tambien, si q(z) 6= 0, z, |z| 1. Note que (6.6) es equivalente a1
|zj| < 1, j = 1, . . . , q
es decir, los inversos de las races deben caer dentro del crculo unitario complejo.
Ejemplo 6.2.2. Sea Yt MA(a) tal que
Yt = t 0.4t1 + 0.4t2, (6.7)
veamos si Yt es invertible. Hallamos las races del polinomio q(z)
2(z) = 1 0.4z + 0.4z2 = 0,
z =0.4
0.42 4(0.4)(1)2(0.4)
=1
2 1
2
10
4
4
10
4
10 4 = 1
2 1
2
10
2
3610
=1
2 1
2
10
2
36
10i =
1
2 3
2i
94
por tanto
|z| =(
1
2
)2+
(32
)2=
1
4+ 9 > 1,
luego Yt es invertible.
6.2.3. Funcion facp de un Proceso MA(q) invertible
Suponga un proceso Yt MA(q) invertible,
Yt = q(L)(t). (6.8)
Considere q(z) = 1+ 1z+ + qzq entonces q(z) 6= 0, |z| 1, luego la funcion 1q(z)tiene desarrollo es serie de Taylor alrededor de z = 0, dado por
1
q(z)= 1 + 1z + 2z
2 + . . . =
j=0
jzj, 0 = 1, (6.9)
con
j=0 2
95
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(a) FAC
5 10 15 20
0.
20.
20.
61.
0
True PACF
Lag
True
PA
CF
(b) FACP
Figura 6.3: FAC y FACP de unMA(3).
6.2.4. Implementacion en R
En R para identificar se usan las funciones acf y pacf y para estimar una de las funciones
usadas es arma de la librera tseries.
Ejemplo 6.2.3. library(forecast,tseries)
n = 300
theta = c(-1,-0.4,-0.4)
(Mod(polyroot(theta)))
y = arima.sim(list(order=c(0,0,2), ma=theta[2:3]), n=n, sd=sqrt(2.3))
layout(1:3)
ts.plot(y)
acf(y,30)
pacf(y,30)
# Estimacion: Funcion arma librera tseries
modelo.y = arma(x=y, order=c(0,2))
summary(modelo.y)
96
0 5 10 15 20 25 30
0.0
0.6
Lag
AC
F
Series y
(a) FAC
5 10 15 20
0.1
0.2
0.4
Lag
Pa
rtia
l A
CF
Series y
(b) FACP
Figura 6.4: FAC y FACP del Ejemplo.
pred.y = predict(modelo.y, n.ahead=2)
plot(seq(1,9,1), c(tail(y), pred.y$pred), type=b)
points(seq(7,9,1), pred.y$pred, type=b, col=red)
6.3. Procesos Autoregresivos de Orden p, AR(p)
Definicion 6.3.1 (Proceso AR(p)). Se dice que Yn, n Z sigue un proceso AR(p) si
Yn = 1Yn1 + 2Yn2 + + pYnp + n, (6.12)
donde n RB(0, 2). Usando el operador de rezago L se puede escribir (6.12) como
p(L)(Yn) = n, (6.13)
con p(z) = 1 1z + 2z2 + + pzp, z C, el polinomio autorregresivo.
Condicion Suficiente para que un AR(p) sea Estacionario
La condicion suficiente para que Yt AR(p) sea estacionario en covarianza es que las praces del la ecuacion p(z) = 0, z1, z2, . . . , zp cumplan
|zi| > 1 (6.14)
donde p(z) es el polinomio caracterstico del AR(p) definido por
97
p(z) = 1 1z 2z2 pzp, z C, (6.15)
Notese que si zj = aj ibj entonces |zj| =a2j + b
2j . La condicion (6.14) no es, sin
embargo, necesaria. En palabras, la condicion (6.14) se describe como para que un proceso
autoregresivo de orden p sea estacionario en covarianza, es suficiente que las races del
polinomio autorregresivo esten por fuera del crculo unitario. El crculo unitario aparece en
la Figura 6.5. En esta figura se observa la posicion de la raz zj y su conjugado zj .
Figura 6.5: Crculo Unitario
6.3.1. Algunas Propiedades de los Procesos AR(p) Estacionarios
Proposicion 6.3.1. Para un proceso Yt AR(p), definido en (6.12), se tieneE(Yt) = 0.
Demostracion. Si Yt es estacionario en covarianza entonces E(Yt) = . Ademas,
E(Yt) = 1E(Yt1) + 2E(Yt2) + + pE(Ytp) + 0,
pero todas las esperanzas son luego
= 1+ 2+ + p.
Si 6= 0 entonces
1 = 1 + + p
por tanto
p(1) = 0
98
lo cual es una contradiccion (), ya que z C, |z| 1 entonces
p(z) 6= 0.
luego debe tenerse que = 0, es decir, el proceso definido en (6.12) es de media cero.
Un proceso Yt AR(p) con E(Yt) = 6= 0 se define como
p(L)(Yt) = 0 + t, (6.16)
donde
0 = p(L)()
= (1 1 2 p).
Notese que tambien se puede escribirYt = (11 p)+1Yt1+ +pYtp+t,de donde Yt = 1(Yt1 ) + + p(Ytp ) + t. Es decir, el proceso (Yt )es AR(p) de media cero.
La Funcion de Autocovarianza de los Procesos AR(p)
La funcion de autocovarianza de un proceso Yt AR(p) estacionario en covarianza, R(k)se puede calcular resolviendo una ecuacion recursiva lineal denominada, en plural, las
ecuaciones de YuleWalker.
Proposicion 6.3.2. Suponga un proceso AR(p), Yn =p
j=1 jYnj + t, que satisface la
condicion de estacionario en covarianza ((6.14)). Su funcion fac R(k) satisface la ecuacion
recursiva
R(k) =
pj=1
jR(k j), k = 1, 2, . . . . (6.17)
denominada, en plural, Ecuaciones de YuleWalker.
Demostracion. Colocando = E(Yn), como Yn =p
j=1 jYnj + n, al tomar esperanza
en ambos miembros se obtiene =p
j=1 j+ 0. Restando las expresiones anteriores se
obtieneYn =p
j=1 j(Ynj )+n. Multiplicando ambos miembros de la identidadanterior por Ynk , con k n, y tomando valor esperado E(.) se obtiene
R(k) = E((Yn )(Ynk ))
99
=
pj=1
E((Ynj )(Ynk )) + E(n(Ynk ))
=
pj=1
jR(k j).
En el resultado anterior se tiene E(n(Ynk )) = 0 porque, a partir de la definicion delprocesoYn en (6.12),Ynk depende de s con s nk, que son variables incorrelacionadascon n.
La Varianza de los Procesos AR(p)
Si Yt AR(p) de media cero, estacionario en covarianza entonces p(L)(Yn) = n, paran RB(0, 2). Ademas, se cumple que z, |z| 1 p(z) 6= 0 entonces el cociente 1p(z)se puede desarrollar en serie de potencias de z, y colocar
1
p(z)=
j=0
jzj,
para ciertos coeficientes (j, j = 0, 1, . . .), con 0 = 1. Por tanto, se puede colocar
Yn =1
p(L)(n) = n + 1n1 + 2n2 + . . . . (6.18)
Tomando varianza a ambos miembros de (6.18), se obtiene V ar(Yn) = 2
j=0 j .
Estimacion de la FAC de un AR(p)
(k) = Corr(Yt, Yt+k), k = 1, 2, . . . , p, p+ 1, . . . (6.19)
cumple que:
1. Se tiene un sistema lineal p p que cumple
A =
1 (1) (p 1)
(1) (2) (p 2)(2) (3) (p 3)...
......
(p 1) (p 2) 1
, =1
2...
p
, =(1)
(2)...
(p)
,
100
entonces
A = . (6.20)
Luego dada (1), . . . , (p) se puede resolver (6.20) tomando = A1, los esti-
madores de Yule-Walker de
2.
(k) = 1(k 1) + 2(k 2) + + p(k p), k = p, p+ 1, . . . (6.21)
Entoces (6.21) forma una ecuacion en diferencias finitas con condiciones iniciales
(1), . . . , (p), para (k), k p+ 1, con solucion
(k) = s1gk1 + s2g
22 + + spgp2, (6.22)
donde gi = 1/zi y zi es la i-esima raz de la ecuacion caracterstica
1 1z 2z2 pzp = 0 (6.23)
con |zi| > 1 |gi| < 1, luego se debe cumplir que (k) 0, k Nota 6.3.1. Si gi 1, por ejemplo gi = 1 se tendra sigki = si(1 )k y por tanto(k) decae a cero mas lento que si gi = .
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(a) = 0.35
0 5 10 15 20
0.0
0.4
0.8
True ACF
Lag
True
AC
F
(b) = 0.88
Figura 6.6: FAC de Yt = Yt1 + t.
FACP de los Procesos AR(p)
La FACP de un procesos AR(p) es (k) tal que (k) es el coeficiente k,k en la regresion
Yt = 0 + k,1Yt1 + + k,kYtk + at, k = 2 (6.24)
101
pero como k,k = 0 si k p+ 1 entoces (k) = 0 si k p+ 1
20000927 20010220 20010716
4555
65
Figura 6.7: FACP Muestral de AR(p).
Ejemplo 6.3.1. Sea Yt AR(2) con
Yt = 1Yt1 + 2Yt2 + t, ti.i.d. N (0, 2)
Yt = 1.5Yt1 0.9Yt2 + t,2(z) = 1 1.5z + 0.9z2 = 0 ecuacion caracterstica
z = 0.83 0, 64i, |z| = 1.054 > 1
luego Yt es estacionario en covarianza, ademas
(k) = 1 1.5(k 1) + 0.9(k 2), k 2(0) = 1, (1) =
11 2 =
1.5
1.9= 0.789.
6.3.2. Proceso AR(1)
El proceso AR(1) se ha utilizado anteriormente por ejemplo, en la prueba Durbin-Watson.
A continuacion se desarrollan algunas de sus propiedades.
Si Yt es un AR(1) de media , entonces esta definido por
Yt = 0 + 1Yt1 + t, 0 = (1 1), (6.25)donde el proceso Yt es estacionario si todas la races z de la ecuacion 1(z) = 0 caen
fuera del circulo unitario |z| > 1. Luego el AR(1) es estacionario en covarianza si y solo si|1| < 1.Definicion 6.3.2 (Marcha Aleatoria). Se dice que Yt es una marcha aleatoria (Random
Walk) si cumple
Yt = + Yt1 + t, (6.26)
102
notese que es un AR(1) con 1 = 1.
Propiedades del AR(1)
1. E(Yt) = =0
1 1
2. Cov(Yt, Yt+k) =2k11 k1
, k = 0, 1, . . .
3. (k) = k1, 1 < 1 < 1.Nota 6.3.2. Diebold [1999, pag. 138], Si Yt AR(1) de media cero estacionario encovarianza entonces
Yt = 1Yt1 + t, t R.B.(0, 2)
es decir
(1 1L)Yt = ty se puede escribir como
Yt =1
1 1Lt,si se cumple que
f(z) =1
1 1z =j=0
j1zj = 1 + 1z +
21z
2 + . . .
por que |1 z| < 1 ya que |1| < 1 y |z| < 1. Entonces
Yt = t + 1t1 + 21t2 + . . . ,
y como los t son incorrelacionados
V ar(Yt) = 2 + 1
2 + 212 + . . .
= 2(1 + 1 + 21 + . . . ) =
2
(1
1 1
)Varianza Incondicional
Nota 6.3.3. Si Yt AR(1) de media cero estacionario en covarianza entoncesE(Yt|Yt1) = E(1Yt1 + y|Yt1) = 1Yt1,
y si se asume que t son independientes de yt1, Yt2, . . .
V ar(Yt|Yt1) = V ar(1Yt1 + t|Yt1)= 21V ar(Yt1|Yt1) + V ar(t) =
2 Varianza Condicional
103
6.4. Procesos Autoregresivos y de Medias Moviles ARMA(p,q)
Si en un proceso Yt AR(p)
Yt 1Yt1 2Yt2 pYtp = t, t R.B.(0, 2), (6.27)
se cambia t por un modeloMA(q), Zt = t+ 1t1+ + qtq entonces (6.27) queda
Yt 1Yt1 pYtp = t + 1t1 + + qtq , (6.28)
donde t RB(0, 2). El efecto de este cambio es que los errores no se toman incorrela-cionados sino con autocorrelacion debil. Se define entonces un proceso ARMA(p,q) como
un modelo que combina las propiedades de memoria larga de los AR(p) con las propiedades
de ruido debilmente autocorrelacionado en los MA(q), y que tiene suficiente flexibilidad y
parsimonia. Usando la notacion del operador de rezago (6.28) se puede definir el proceso
ARMA(p, q) por
Definicion 6.4.1. Un proceso Yt ARMA(p, q) se define mediante la ecuacion (6.28), otambien por
p(L)(Yt) = q(L)(t), t Z, (6.29)
donde t RB(0, 2), y p(z) = 1 p
j=1 jzj , q(z) = 1 +
qj=1 jz
j son los
polinomios autoregresivo y de media movil respectivamente.
Las condiciones de estacionariedad de la parte AR(p) y de invertibilidad de la parte MA(q)
se asumen en el modelo ARMA(p,q), (6.29). Por lo tanto, se asume que las races de las
ecuaciones p(z) = 0 y q(z) = 0 estan fuera del crculo unitario. Ademas se asume que
estos polinomios no tienen races en comun. Si se cumplen estas condiciones el proceso
Yt ARMA(p, q) es estacionario e identificable.
Ejemplo 6.4.1. Sea Yt ARMA(1, 1) dado por
1(L)(Yt) = 1(L)(t) (6.30)
donde 1(L) = 1L y 1(L) = 1 + L. Es decir Yt = Yt1 + t + t1. Si || < 1 y|| < 1 es estacionario e invertible. Por ejemplo
Yt = 0.9Yt1 + t 0.4t1,
con t RB(0, 2)
104
Ejemplo 6.4.2. Consideremos un modelo de descomposicion con tendencia lineal y esta-
cionalidad de perodo 12, modelada por variables indicadoras donde el residuo estructural
es un proceso ARMA(1, 1). Entonces el modelo se escribe como el sistema de dos ecua-
ciones siguiente.
Yt = 0 + 1t+
11j=1
jIj(t) + t,
t = t1 + at + at1,
con at RB(0, 2), el residuo del proceso arma. Notese que el numero de parametros deeste modelo es 16, incluyendo la varianza 2.
Ejemplo 6.4.3. Considere el proceso Yt ARMA(2, 1) dado por
Yt = 2 +1 0.4L
1 1.5L+ 0.9L2 t, t R.B.(0, 2)
osea
Yt = 2(1 1.5 + 0.9)+ 1.5Yt1 0.9Yt3 + t 0.4t1
con ecuacion caracterstica
1 1.5z + 0.9z2 = 0
y sus races dadas por
z =1.5
1.52 4(0.9)2(0.9)
= 0.83 0.645i
por tanto
|z| = 1.05 > 1
es un proceso estacionario en covarianza e invertible.
6.4.1. Propiedades de los Modelos ARMA
1. Suponga Yt ARMA(p, q) entonces E(Yt) = 0. Si el proceso es estacionarioentonces se puede expresar q(z)/p(z) =
j=0 jz
j con0 = 1 y
j=0 |j|
105
por tanto
E(Yt) = E(t + 1t1 + 2t2 + . . . ) = 0.
2. En caso de ser E(Yt) = 6= 0 se coloca
Yt = +q(L)
p(L)t (6.31)
de donde p(L)Yt = p(1) + q(L)t. Por ejemplo, sea Yt ARMA(1, 1) conE(Yt) = entonces
Yt = +1 + L
1 Lt
luego
(1 L)Yt = (1 L)+ (1 L)t
pero (1 L) = = (1 ), luego
Yt = (1 )+ Yt1 + t + t1.
3. La funcion de autocovarianza de un proceso Yt ARMA(p,q) estacionario de mediacero. Si se indica por R(k) = Cov(Yt, Yt+k) su funcion de autocovarianza, para
k = 0, 1, . . . un metodo para calcular esta funcion se basa en la representacion
p(L)Yt = q(L)t, con q(z)/p(z) =
j=0 jzj .Multiplicandoambosmiembros
por Ytk y tomando esperanza E(.) se obtienen las ecuaciones recursivas siguientes,
similares a las ecuaciones Yule-Walker para AR(p), (6.17). Defina n = max(p, q+1),
R(k)1R(k1). . .pR(kp) =2
qj=k jjk, si k = 0, 1, . . . , n 1
0, si k = n, n+ 1, . . . .
(6.32)
Ejemplo 6.4.4. (tomado de Brockwell and Davis [2002], pag. 93). Considere el
procesoARMA(2,1) dado por (1L+ 14L2)Yt = (1+L)t. Entoncesn = max(p, q+1) = 2, por tanto, para k = 0, 1 se tiene el sistema lineal
R(0) R(1) + 14R(2) = 2(00 + 11) =
2(1 + 1),
R(1) R(0) + 14R(1) = 2(10) =
20 = 2. (6.33)
106
Para calcular los coeficientes (j, j = 0, 1, . . .) se puede utilizar la funcion de
R, ARMAtoMA(a,b,m), la cual calcula los coeficientes j, j = 1, 2, . . . , m,
dados los vectores a = (1, . . . , p) y b = (1, . . . , q). Entonces, escribiendo
ARMAtoMA(c(1.0, -0.25), 1.0, 10), se obtiene el vector
[1] 2.00000000 1.75000000 1.25000000 0.81250000 0.50000000
[6] 0.29687500 0.17187500 0.09765625 0.05468750 0.03027344
de donde 1 = 2. Usando la segunda ecuacion de (6.32), se obtiene R(2) = R(1)14R(0), luego, reemplazando en el sistema (6.33), y resolviendo, se obtienen R(0) =
322/3, R(1) = 282/3. Utilizando la segunda ecuacion de (6.32),
R(k) = R(k 1) 14R(k 2), k = 2, 3, . . .
se puede calcular la autocovarianza recursivamente.
4. La varianza de un proceso Yt ARMA(p,q) estacionario de media cero. Es evidenteque a partir de la primera ecuacion en (6.32) se puede definir un sistema lineal una de
cuyas incognitas es R(0), la cual se resuelve en funcion de 2.
6.4.2. Libreras para identificacion, estimacion y pronosticos de modelos AR-
MA
El plan de analisis con procesos ARMA consiste en
1. Identificar el modelo ARMA(p,q).
2. Estimar el modelo.
3. Chequeo del ajuste del modelo a los datos.
4. Pronosticos con el modelo. O simulacion del modelo.
Algunas de las libreras y funciones a utilizar para este analisis son
1. stat, con la funcion arima(), estima primero por mnimos cuadrados condicionales y
luego por maxima verosimilitud.
2. tseries, con la funcion arma(), estima mediante mnimos cuadrados condicionales.
3. forecast, con la funcion auto.arima(), para identificacion de modelos ARIMA.
107
4. FitAR, FitARMA, para estimacion de AR(p) y ARMA(p,q).
5. timsac, con la funcion autoarmafit(), para identificacion del modelo ARMA(p,q) con
menor AIC. El programa asume que el modelo ARMA(p,q) se define con q(z) =
1 qj=1 jzj , es decir, los coeficientes j se cambian de signo en esta librera.Tambien tiene la funcion armafit() para ajuste de modelos ARMA.
6.4.3. Identificacion de modelos ARMA
No es facil identificar los modelos ARMA(p, q) mediante la FAC y FACP. Si (q p 1)entonces para (k q + 1) se cumple (6.21) y para 1 k p 1, (k) no tiene un patrongeneral, luego la FAC muestral presenta un patron definido solamente para k q + 1.
Figura 6.8: Fac Muestral de ARMA(p, q).
Una alternativa consiste en buscar una pareja de ordenes (p, q) dentro de un rango inicial,
por ejemplo p, q = 0, 1, . . . , 10, que minimice alguna funcion de 2, como por ejemplo el
AIC o el BIC.
6.4.4. Estimacion de modelos ARMA
La estimacion de procesos Yt ARMA(p,q) se basa en un supuesto: que el vector Y =(Y1, . . . , Yn)
se distribuye Normal multivariado con media , y matriz de covarianzas
= [Cov(Yi, Yj)]nn. Como el proceso se asume estacionario, se cumple Cov(Yi, Yj) =
R(j i), donde R(k) es la funcion de autocovarianza de Yt. La forma de es la de una
108
matriz tipo Toeplitz: las diagonales descendentes son constantes:
=
R(0) R(1) R(n 1)R(1) R(0) R(n 2)R(2) R(1) R(n 3)...
......
R(n 1) R(n 2) R(0)
. (6.34)
Por ejemplo, para Yt unAR(p),R(k) se calculamediante las ecuaciones Yule-Walker, (6.17),
R(k) = +p
j=1 jR(k j). Por tanto, colocando = (, 2, 1, . . . , p, 1, . . . , q),la matriz depende del vector , y se escribe (). Este supuesto permite implementar la
estimacion por maxima verosimilitud. Se escribe la densidad Normal Multivariada como
f(y, ) =1
(2pi)n/2det(())
exp
(12(y )()1(y )
)(6.35)
donde = (, . . . , ) Rn. La funcion de log-verosimilitud se define a partir del logaritmode la densidad (6.35), log(f(y, )), y esta dada por
L() :=
nj=1
log f(yj, )
= n2log(2pi) 1
2log det(()) 1
2(y )()1(y ). (6.36)
El estimador ML de maxima verosimilitud de se define como
= argmin
(L()). (6.37)
La identificacion con base en el AIC se basa en comparar varios modelosARMA(p, q) para
valores de, por ejemplo, p = 0, 1, . . . , 20 y p = 0, 1, . . . , 20 con base en el criterio AIC el
cual esta definido por
AIC = 2L() + 2k, k = p+ q (6.38)
Entonces identifica un posible modelo parsimonioso escogiendo el modelo con el mnimo
AIC.
Ejemplo 6.4.5. Suponga que se requiere simular un ARMA(3, 2) tal que se escogen las
races de 3(z) y 2(z), con inversos dentro del crculo unitario.
109
z1 = complex(3)
z1[1] = -0.8 - 1.3i
z1[2] = conj(z1[1])
z1[3] = 1.2
Entonces 3(z) = 1 1z 2z2 3z3
(z-z1[1])(z-z1[2])(z-z1[3])
= 2.796 + 0.41z + 0.4z2 + z3 polinomio monico
-z1[1]z1[2]z1[3] = -2.2796
a = poly.calc(z1)
a = a/a[1]
z2 = complex(2)
z2[1] = -1.2 -0.5i
z2[2] = conj(z2[1])
b = poly.calc(z2)
b = b/b[1]
n = 300
y = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,
sd=sqrt(0.3))
require(forecast)
auto.arima(y)
y1 = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,
sd=sqrt(0.3), randgeb = function(n,...))
auto.arima(y1)
stats::arima(y1)
mod1 = stats::arima(y1, c(3,0,2))
py1 = predict(mod1, n.ahead=20)
plot(1:70, c(y[(3200-49):3200],py1$pred),
110
ylim=c(min(py1$pred-1.64*py1$se),max()), type=b, col=2)
points(51:70,py1$pred, type=b, col=blue)
points(51:70, py1$pred+1.64*py1$se, type=l, col=blue)
points(51:70, py1$pred-1.64*py1$se, type=l, col=blue)
6.4.5. Pronosticos con modelos ARMA