CAP ´ ITULO 6 Modelos ARMA para la Componente Aleatoria 6.1. Introducci´ on En los modelos de descomposici´ on Y t = T t + S t + ε t ,t =1, 2,... se estima ˆ ε t y se determina si es o n´ o ruido blanco mediante las pruebas Ljung-Box y Durbin-Watson. En caso de encontrar que ˆ ε t no es ruido blanco, el siguiente paso es modelar esta componente mediante tres posibles modelos 1. Medias M´ oviles de orden q, MA(q). 2. Autoregresivos de orden q, AR(p). 3. Medias M´ oviles Autoregresivos, ARMA(p,q). “Los tres modelos var´ ıan en su capacidad de capturar distintos tipos de comportamiento de autoregresi´ on.” “Comenzaremos dando las caracter´ ısticas de las funciones de autocorrelaci´ on y cantidadades relacionadads con cada modelos, est´ as no tiene nada que ver con datos ni estimaci´ on pero son fun- damentales para desarrollar una comprensi´ on b´ asica de las propiedades de los modelos necesarios para llevar a cabo pron´ osticos inteligentes.” Diebold [1999, p´ ag. 129] 89
22
Embed
CAP´ITULO 6 Modelos ARMA para la Componente …ndgirald/Archivos Lectura/Archivos curso... · CAP´ITULO 6 Modelos ARMA para la Componente Aleatoria 6.1. Introduccion´ En los modelos
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
CAPITULO 6
Modelos ARMA para la Componente Aleatoria
6.1. Introduccion
En los modelos de descomposicion Yt = Tt + St + εt, t = 1, 2, . . . se estima εt y se
determina si es o no ruido blanco mediante las pruebas LjungBox y DurbinWatson. En
caso de encontrar que εt no es ruido blanco, el siguiente paso es modelar esta componente
mediante tres posibles modelos
1. Medias Moviles de orden q, MA(q).
2. Autoregresivos de orden q, AR(p).
3. Medias Moviles Autoregresivos,ARMA(p, q).
“Los tres modelos varıan en su capacidad de capturar distintos tipos de
comportamiento de autoregresion.” “Comenzaremos dando las caracterısticas
de las funciones de autocorrelacion y cantidadades relacionadads con cada
modelos, estas no tiene nada que ver con datos ni estimacion pero son fun
damentales para desarrollar una comprension basica de las propiedades de
los modelos necesarios para llevar a cabo pronosticos inteligentes.” Diebold
[1999, pag. 129]
89
90
6.2. Procesos de Medias Moviles de orden q
Definicion 6.2.1 (El Operador de Rezago). Se denota por L (lag, en ingles) y es tal que
L(Yt) = Yt−1. Es decir, L opera sobre una serie rezagandola un perıodo hacia atras. De
igual manera L(Yt−1) = Yt−2, luego L(L(Yt)) = L2(Yt) = Yt−2 y en general Lp(Yt) =
Yt−p. Se define tambien L0 = I , el operador identidad.
Un polinomio de grado p en el operador L se define como el operador formado por una
combinacion lineal de potencias de L
BP (L) = β0 + β1L+ β2L2 + · · ·+ βpL
p, (6.1)
tal que
BP (L)(Yt) = (β0 + β1L+ β2L2 + · · ·+ βpL
p)Yt,
=
p∑
j=0
βjLjYt,
=
p∑
j=0
βjYt−j ,
= β0Yt + β1Yt−1 + β2Yt−2 + · · ·+ βpYt−p.
Definicion 6.2.2 (Proceso MA(q)). Se dice que una serie Yt sigue un procesoMA(q), q =
1, 2, . . . de media movil de orden q, si se cumple que
Yt = εt + θ1εt−1 + · · ·+ θqεt−q , t ∈ Z, (6.2)
donde εt ∼ RB(0, σ2). La expresion con el operador L es, si se define el polinomio
θq(L) = 1 + θ1L+ · · ·+ θqLq, (6.3)
entonces la ecuacion (6.2) se expresa
Yt = θq(L)(εt). (6.4)
6.2.1. Propiedades
1. E(Yt) = 0
2. V ar(Yt) = (1 + θ21 + · · ·+ θ2q)σ2
91
luego V ar(Yt) > V ar(εt), en general.
3. Cov(Yt, Yt+k) = R(k), donde
R(K) =
σ2
q−k∑
j=0
θjθj+k , k < q + 1
0, k ≥ q + 1
(6.5)
con θ0 = 1.
4. Un MA(q) siempre es un proceso estacionario con fac, ρ(k) = R(k)R(0)
.
Interpretacion de 3. Un MA(q) es un proceso debilmente correlacionado. Se puede ver
como una alternativa a un Ruido Blanco completamente incorrelacionado.
Ejemplo 6.2.1. Sea Yt ∼MA(2) dado por
yt = εt − θ1εt−1 + θ2εt−2, εti.i.d.∼ N (0, 9), t ∈ Z,
con
θ1 = −0.4, θ2 = 0.4, σ2 = 9,
entonces
R(0) =(1 + 0.42 + 0.42
)9 = 11.88
R(1) = 9
2−1∑
j=0
θjθj+1 = 9(θ0θ1 + θ1θ2)
= 9(− 0.4 + (−0.4)(0.4)
)= −5.04
R(2) = 9
2−2∑
j=0
θjθj+2 = 9(θ0θ2) = 9(0.4) = 3.6.
Entonces la FAC es
ρ(0) = 1, ρ(1) = − 5.04
11.88= −0.42, ρ(2) =
3.6
11.88
ρ(3) = ρ(4) = · · · = 0
92
0 1 2 3 4
−0.4
−0.2
0.00.2
0.40.6
0.81.0
True ACF
Lag
True A
CF
Figura 6.1: Funcion de Autocorrelacion.
Ejercicio 6.2.1. Encuentre la FAC de
1. Yt = εt − 0.5εt−1 − 0.5εt−2.
2. Yt = εt + 0.6εt−1 − 0.3εt−2 − 0.1εt−3.
Conclusion De acuerdo con (6.5), si la fac muestral de una serie Yt termina abruptamente
puede tratarse de unMA(q). Por ejemplo, en la siguiente grafica 6.2 serıa factible un modelo
MA(3).
0 5 10 15
0.0
0.4
0.8
Lag
ACF
Series MA.3
Figura 6.2: FAC muestral de un MA(3).
Definicion 6.2.3 (Funcion de Autocorrelacion Parcial (facp)). Suponga que (Yt, t ∈ Z)
es estacionaria. La facp es una funcion de k, α(k), k = 1, 2, . . . definida por
1. α(1) = ρ(1)
2. α(k) = Corr(ε1, εk) donde
ε1 = Y1 − E(Y1|Y2, . . . , Yk−1)
εk = Yk −E(Yk|Y2, . . . , Yk−1), k = 2, . . .
93
Y la facp muestral se define por α(k)
1. α(1) = ρ(1)
2. α(2) : se regresa Yt sobre Yt−1 y Yt−2 tal que Yt = φ21Yt−1 + φ22Yt−2 + εt entonces
α(2) = φ22
3. α(k) : se regresa Yt sobre Yt−1, . . . , Yt−k tal que Yt = φk1Yt−1 + · · ·+φkkYt−k + εt
entonces α(k) = φkk
La facp de un proceso Yt ∼ MA(q) se puede encontrar si se asume la condicion de
invertibilidad para un MA(q)
6.2.2. Condicion de Invertibilidad del Proceso MA(q)
Definicion 6.2.4. Dado un proceso MA(q), Yt = θq(L)(εt) donde θq(L) = 1+θ1L+θ2L2+
· · ·+ θqLq, entonces considerando el polinomio en z ∈ C, θq(z) = 1 + θ1z + · · ·+ θqz
q y
sus q raıces (z1, z2, . . . , zq) ∈ C, es decir, valores z ∈ C tales que θq(z) = 0, se dice que el
proceso Yt es invertible si se cumple
|zj| > 1, ∀j = 1, . . . , q, (6.6)
o tambien, si θq(z) 6= 0, ∀z, |z| ≤ 1. Note que (6.6) es equivalente a
1
|zj|< 1, ∀j = 1, . . . , q
es decir, los inversos de las raıces deben caer dentro del cırculo unitario complejo.
Ejemplo 6.2.2. Sea Yt ∼MA(a) tal que
Yt = εt − 0.4εt−1 + 0.4εt−2, (6.7)
veamos si Yt es invertible. Hallamos las raıces del polinomio θq(z)
θ2(z) = 1− 0.4z + 0.4z2 = 0,
z =0.4±
√0.42 − 4(0.4)(1)
2(0.4)
=1
2± 1
2
10
4
√4
10
√4
10− 4 =
1
2± 1
2
√10
2
√−36
10
=1
2± 1
2
√10
2
√36
10i =
1
2± 3
2i
94
por tanto
|z| =
√(1
2
)2
+
(±3
2
)2
=
√1
4+ 9 > 1,
luego Yt es invertible.
6.2.3. Funcion facp de un Proceso MA(q) invertible
Suponga un proceso Yt ∼MA(q) invertible,
Yt = θq(L)(εt). (6.8)
Considere θq(z) = 1+ θ1z+ · · ·+ θqzq entonces θq(z) 6= 0, |z| ≤ 1, luego la funcion 1
θq(z)
tiene desarrollo es serie de Taylor alrededor de z = 0, dado por
1
θq(z)= 1 + ψ1z + ψ2z
2 + . . . =
∞∑
j=0
ψjzj, ψ0 = 1, (6.9)
con∑∞
j=0 ψ2 <∞, donde ψj → 0 si j →∞. Multiplicando ambos miembros de (6.8) por
de donde ψ1 = 2. Usando la segunda ecuacion de (6.32), se obtiene R(2) = R(1)−14R(0), luego, reemplazando en el sistema (6.33), y resolviendo, se obtienen R(0) =
32σ2/3, R(1) = 28σ2/3. Utilizando la segunda ecuacion de (6.32),
R(k) = R(k − 1)− 1
4R(k − 2), k = 2, 3, . . .
se puede calcular la autocovarianza recursivamente.
4. La varianza de un proceso Yt ∼ ARMA(p,q) estacionario de media cero. Es evidente
que a partir de la primera ecuacion en (6.32) se puede definir un sistema lineal una de
cuyas incognitas es R(0), la cual se resuelve en funcion de σ2.
6.4.2. Librerıas para identificacion, estimacion y pronosticos de modelos AR
MA
El plan de analisis con procesos ARMA consiste en
1. Identificar el modelo ARMA(p,q).
2. Estimar el modelo.
3. Chequeo del ajuste del modelo a los datos.
4. Pronosticos con el modelo. O simulacion del modelo.
Algunas de las librerıas y funciones a utilizar para este analisis son
1. stat, con la funcion arima(), estima primero por mınimos cuadrados condicionales y
luego por maxima verosimilitud.
2. tseries, con la funcion arma(), estima mediante mınimos cuadrados condicionales.
3. forecast, con la funcion auto.arima(), para identificacion de modelos ARIMA.
107
4. FitAR, FitARMA, para estimacion de AR(p) y ARMA(p,q).
5. timsac, con la funcion autoarmafit(), para identificacion del modelo ARMA(p,q) con
menor AIC. El programa asume que el modelo ARMA(p,q) se define con θq(z) =
1 −∑qj=1 θjz
j , es decir, los coeficientes θj se cambian de signo en esta librerıa.
Tambien tiene la funcion armafit() para ajuste de modelos ARMA.
6.4.3. Identificacion de modelos ARMA
No es facil identificar los modelos ARMA(p, q) mediante la FAC y FACP. Si (q ≥ p ≥ 1)
entonces para (k ≥ q + 1) se cumple (6.21) y para 1 ≤ k ≤ p− 1, ρ(k) no tiene un patron
general, luego la FAC muestral presenta un patron definido solamente para k ≥ q + 1.
������
����� �������
�
Figura 6.8: Fac Muestral de ARMA(p, q).
Una alternativa consiste en buscar una pareja de ordenes (p, q) dentro de un rango inicial,
por ejemplo p, q = 0, 1, . . . , 10, que minimice alguna funcion de ε2, como por ejemplo el
AIC o el BIC.
6.4.4. Estimacion de modelos ARMA
La estimacion de procesos Yt ∼ ARMA(p,q) se basa en un supuesto: que el vector Y =
(Y1, . . . , Yn)′ se distribuye Normal multivariado con media µ, y matriz de covarianzas
Σ = [Cov(Yi, Yj)]n×n. Como el proceso se asume estacionario, se cumple Cov(Yi, Yj) =
R(j − i), donde R(k) es la funcion de autocovarianza de Yt. La forma de Σ es la de una
108
matriz tipo Toeplitz: las diagonales descendentes son constantes:
Σ =
R(0) R(1) · · · R(n− 1)
R(1) R(0) · · · R(n− 2)
R(2) R(1) · · · R(n− 3)...
......
R(n− 1) R(n− 2) · · · R(0)
. (6.34)
Por ejemplo, para Yt un AR(p),R(k) se calcula mediante las ecuaciones YuleWalker, (6.17),