Econometria IV Modelos Lineares de Séries Temporais Fernando Chague 2016
Econometria IVModelos Lineares de Séries Temporais
Fernando Chague
2016
Estacionariedade
Estacionariedade
Inferência estatística em séries temporais requer alguma forma deestacionariedade dos dados
I Intuição: se a média de uma variável em cada subperíodo for igual,podemos almejar uma estimativa precisa com a amostra inteira
Muitas vezes, podemos aplicar uma transformação conveniente nosdados
I Preços não são estacionários, mas retornos são estacionários
Definição: A série temporal {rt} é fracamente estacionária se1. E (rt) = µ para todo t; e2. E (rt −µ)(rt−j −µ) = γj < ∞.
Autocorrelação
A correlação entre duas variáveis é dada por:
ρx ,y =cov (x ,y)√
var (x) ,var (y)
Um estimador da correlação entre duas variáveis é:
ρ̂x ,y =∑
Tt=1 (xt −x)(yt −y)√
∑Tt=1 (xt −x)2
∑Tt=1 (yt −y)2
onde x = ∑Tt=1 xt/T e y = ∑
Tt=1 yt/T
Autocorrelação
De maneira análoga, a autocorrelação é definida por:
ρk =Cov (xt ,xt−k)√
var (xt)var (xt−k)=
Cov (xt ,xt−k)
var (xt)≡ γk
γ0
onde var (xt−k) = var (xt) e Cov (xt ,xt−k) = γk devido aestacionariedade fracaE um estimador natural é:
ρ̂k =∑
Tt=k+1 (xt −x)(xt−k −x)
∑Tt=1 (xt −x)2 , 0≤ k < T −1
Autocorrelação
ρ̂k =∑
Tt=k+1 (xt −x)(xt−k −x)
∑Tt=1 (xt −x)2 , 0≤ k < T −1
Opção 1: Se {xt} é uma sequência de variáveis aleatórias iid, comE(x2
t)< ∞, então
ρ̂k ∼N
(0, 1T
)Opção 2: Se {xt} é fracamente estacionária tal quext = µ + ∑
qi=0 ψiat−i , ψ0 = 1 e {aj} é uma sequência de variáveis
aleatórias iid com média zero então para k > q
ρ̂k ∼N
(0, 1+2∑
qi=1 ρ2
iT
)
AutocorrelaçãoCom base na distribuição assintótica de ρ̂k , podemos testar para cadak:
H0 : ρk = 0 vs Ha : ρk 6= 0
com base na distribuição
t =ρ̂k√(
1+2∑qi=1 ρ̂2
i)/T∼N (0,1)
Teste de autocorrelações conjunto até ordem m (Ljung-Box,1978):
H0 : ρ1 = ... = ρk = 0 vs Ha : ρi 6= 0 para algum i ∈ {1, ...,m}
com base na distribuição
Q (m) = T (T +2)m
∑l=1
ρ̂2l
T − l ∼ χ2m
Séries de Tempo Lineares
Ruído Branco (White Noise): A série temporal rt é um ruído branco se{rt} é uma sequência iid
(µ,σ2) com µ < ∞ e σ2 < ∞. Seja {εt} uma
sequência iid com εt ∼ (0,1), podemos representar rt por:
rt = µ + σεt
Todas FACs são iguais a zero
Ruído Branco Gaussiano (Gaussian White Noise): A série temporalrt é um ruído branco gaussiano se εt ∼N (0,1)
Séries de Tempo Lineares
Série de Tempo Linear: Uma séria temporal rt é dita linear se pode serescrita como:
rt = µ +∞
∑i=0
ψiεt−i
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)e ψ0 = 1
Observações:1. A dinâmica temporal é dada pelos coeficientes ψ
2. Se rt é fracamente estacionário, temos que:
E (rt) = µ e Var (rt) = σ2ε
∞
∑i=0
ψ2i
3. Como rt é fracamente estacionário, ∑∞i=0 ψ2
i < ∞ e portanto ψ2i → 0
Séries de Tempo Lineares4. Portanto, choques longínquos tem pouco impacto:
γ` = Cov (rt , rt−`) = E[(
∞
∑i=0
ψi εt−i
)(∞
∑j=0
ψi εt−`−i
)]
= E[
∞
∑i ,j=0
ψi ψjεt−i εt−`−j
]
=∞
∑j=0
ψj+`ψjE[ε
2t−`−j
]= σ
2ε
∞
∑j=0
ψj+`ψj
5. A função de autocorrelação será:
ρ` =γ`
γ0=
∑∞i=0 ψi ψi+`
1+ ∑∞i=0 ψ2
i
para `≥ 0
Modelos Autoregressivos
Modelo Autoregressivo de Ordem 1 - AR(1): Uma série temporal rt éuma série AR(1) se:
rt = φ0 + φ1rt−1 + εt
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações
1. Momentos condicionais. E (rt |rt−1) = φ0 + φ1rt−1 e Var (rt |rt−1) = σ2ε
Modelos Autoregressivos
2. Média não-condicional. Note que E (rt) = φ0 + φ1E (rt−1). Se rt éfracamente estacionário, temos que E (rt) = E (rt−1) = µe:
E (rt) = µ =φ0
1−φ1
3. (Linearidade) Substitutindo φ0 = (1−φ1) µ temos que
rt −µ = φ1 (rt−1−µ) + εt e portanto:
rt −µ = εt + φ1εt−1 + φ21 εt−2 + ...
rt = µ +∞
∑i=0
φi1εt−i
4. (Estacionariedade) Para garantir estacionariedade fraca, precisamoster que −1< φ1 < 1
Modelos Autoregressivos
5. Variância não-condicional. Como E (rt−1εt) = 0 temos queVar (rt) =φ2
1 Var (rt−1) + σ2ε . Como rt é estacionário:
Var (rt) =σ2
ε
1−φ21
com φ21 < 1
Modelos Autoregressivos
6. Covariâncias. Multiplicando rt −µ = φ1 (rt−1−µ) + εt por εt temos:
E [(rt −µ)εt ] = φ1E [(rt−1−µ)εt ] + E[ε
2t]
= 0+ σ2ε
Multiplicando rt −µ = φ1 (rt−1−µ) + εt por rt−`−µ temos:
γ` = E [(rt −µ)(rt−`−µ)] = φ1E [(rt−1−µ)(rt−`−µ)] + E [εt (rt−`−µ)]
= φ1γ`−1
Generalizando, temos:
γ` =
{σ2
ε
1−φ21
φ1γ`−1
se` = 0se` > 0
Modelos Autoregressivos
7. Correlações (FACs). A Função de Autocorrelações é dada por
ρ` =γ`
γ0= φ1ρ`−1
para `≥ 0.Como ρ0 = 1, temos ρ` = φ `1. Ou seja, ρ` decae
exponencialmente em `.
Modelos AutoregressivosModelo Autoregressivo de Ordem p - AR(p): Uma séria temporal rt éuma série AR(p) se:
rt = φ0 + φ1rt−1 + ...+ φprt−p + εt
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações1. Média não-condicional.
E (rt) = µ =φ0
1−φ1− ...φp
2. (Estacionariedade) A série será estacionária se as raízes do polinômioforem maiores em módulo do que 1:
1−φ1x −φ2x2− ...−φpxp = 0
Modelos Autoregressivos
3. Covariâncias. As auto-covariâncias de um processo AR(p) são iguais a:
γ` =
{φ1γ1 + φ2γ2 + ...+ φpγp + σ2
ε
φ1γ`−1 + φ2γ`−2 + ...+ φpγ`−p
se` = 0se` > 0
Note que como γ` = γ−`, temos um sistema de p +1 equações em p +1 γ’sque pode ser resolvido para obter expressões explícitas4. Correlações (FACs). A Função de Autocorrelações é dada por
ρ` = φ1ρ`−1 + φ2ρ`−2 + ...+ φpρ`−p
para `≥ 1.
Modelos Autoregressivos
Como estimar modelo AR(P)
1. Especificação: definir p
2. Estimar parâmetros do modelo: OLS
3. Verificar resíduos: ε̂t deve ser um ruído branco
Modelos Autoregressivos1. Especificação: definir p
Função de Autocorrelação Parcial (PACF): É definida pelos coeficientes{φ̂1,1, φ̂2,2, φ̂3,3, φ̂4,4...
}estimados de acordo com as seguintes equações:
xt = φ0,1 + φ1,1xt−1 + e1,t
xt = φ0,2 + φ1,2xt−1 + φ2,2xt−2 + e2,t
xt = φ0,3 + φ1,3xt−1 + φ2,3xt−2 + φ3,3xt−3 + e3,t
xt = φ0,4 + φ1,4xt−1 + φ2,4xt−2 + φ3,4xt−3 + φ4,4xt−4 + e4,t...
Observações:
1. φ̂p,p → φp para T grande2. φ̂`,`→ 0 para T grande e ` > p3. A variância assintótica de φ̂`,` é 1/T para ` > p
Modelos Autoregressivos1. Especificação: definir p
Critérios de Informação: Seleciona a defasagem de acordo com aaderência do modelo aos dados, medida por alguma das funções:
AIC (`) =− 2T ×LLF (`) +
2T × (# parameters)
BIC (`) =− 2T ×LLF (`) +
2T × ln(# parameters)
onde LLF (`) é a função de log-verossimilhança do modelo AR (`) avaliadano ponto máximo
Observações:1. Como LLF (`) é multiplicado por -1, escolhe-se modelo com menorAIC/BIC2. BIC pune mais (desconta menos) modelos com mais parâmetros
Modelos Autoregressivos
Modelo de Média Móvel de Ordem 1: uma série temporal rt é umasérie MA(1) se:
rt = µ + εt + θ1εt−1
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações1. Média não-condicional. E (rt) = µ
2. Variância não-condicional.Var (rt) = σ2ε + θ 2
1 σ2ε =
(1+ θ 2
1)
σ2ε
3. Autocorrelação.A Função de Autocorrelações é dada por
ρ0 = 1, ρ1 =θ1(
1+ θ 21) e ρ` = 0, para` > 1
Modelos Autoregressivos
Modelo de Média Móvel de Ordem q: uma série temporal rt é umasérie MA(q) se:
rt = µ + εt + θ1εt−1 + θ2εt−2 + ...+ θqεt−q
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações
1. Média não-condicional.E (rt) = µ
2. Variância não-condicional.Var (rt) =(1+ θ 2
1 + ...+ θ 2q)
σ2ε
3. Autocorrelação.A Função de Autocorrelações é dada por
ρ0 = 1, ρ` =θ` + θ`+1θ1 + θ`+2θ2 + ...+ θqθq−1(
1+ θ 21 + ...+ θ 2
q) , e ρ` = 0, para` > q
Modelos Autoregressivos
Como estimar modelo MA(q)
1. Especificação: definir q (ACF ou AIC/BIC)
2. Estimar parâmetros do modelo: MLE
3. Verificar resíduos: ε̂t deve seguir distribuição especificada
Modelos Autoregressivos
Modelo ARMA(1,1): uma série temporal rt é uma série ARMA(1,1) se:
rt = φ0 + φ1rt−1 + εt + θ1εt−1
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações
1. Média não-condicional. E (rt) = µ = φ01−φ1
2. Variância não-condicional.Var (rt) = γ0 =(1+2φ1θ1+θ2
1 )σ2ε
1−φ13. Autocorrelação.A Função de Autocorrelações é dada por
ρ0 = 1, ρ1 = φ1 +θ1σ2
ε
γ0e ρ` = φ1ρ`−1 para` > 1
Modelos Autoregressivos
Modelo ARMA(p,q): uma série temporal rt é uma série ARMA(p,q) se:
rt = φ0 +p
∑i=1
φi rt−i + εt +q
∑i=1
θiεt−i
onde {εt} é sequência iid com εt ∼(0,σ2
ε
)Observações
1. Média não-condicional.E (rt) = φ0/(1−φ1− ...−φp)2. Autocovariâncias.Para j > q temos
γj = φ1γj−1 + φ2γj−2 + · · ·+ φpγj−p, para j = q +1,q +2, ...
Modelos Não Estacionários
Modelos Não Estacionários
Passeio Aleatório: uma série temporal pt é um passeio aleatório se:
pt = pt−1 + εt
onde p0 é o valor inicial e {εt} é um ruído branco (sequência iid comεt ∼
(0,σ2
ε
))
Observações
1. Se εt+1 segue uma distribuição simétrica, dado pt , a probabilidade dept+1 subir é 50% e de cair 50%2. (Martingal) A melhor previsão para o futuro é o valor observado parahoje Et [pt+1] = pt3. Em períodos curtos, o log do preço de uma ação pode ser modelado pormeio de um passeio aleatório
Modelos Não Estacionários
Observações (cont.):
4. Não estacionário:
Var (pt) = Var (pt−1 + εt) = Var (pt−1) + σ2ε + Cov (εt ,pt−1)
5. Podemos representar o Passeio Aleatório como:
pt = εt + εt−1 + εt−2 + ...
6. (Memória persistente) Note que agora, o impacto de choquespassados não decai com o tempo7. O erro da projeção aumenta com o horizonte. Como Et [Pt+`] = pt ,
Pt+`−Et [Pt+`] = εt+` + εt−`−1 + εt+1
e a variância do erro é igual a `×σ2ε e aumenta com `.
Modelos Não EstacionáriosPasseio Aleatório com Drift: uma série temporal pt é um passeioaleatório com drift se
pt = µ + pt−1 + εt
onde p0 é o valor inicial, µ é uma constante e {εt} é um ruído branco(sequência iid com εt ∼
(0,σ2
ε
))
Observações
1. Substitutindo recursivamente:
p1 = µ + p0 + ε1
p2 = µ + p1 + ε2 = 2µ + p0 + ε2 + ε1...
pt = µt + p0 + εt + εt−1 + · · ·+ ε1
2. Tendência determinista µt (time-trend) e tendência estocástica(∑εt−i = εt + εt−1 + · · ·+ ε1)3. A tend. determinista domina, pois o desvio padrão condicional é
√tσ2
ε
Modelos Não Estacionários
Processo com Tendência Estacionária: uma série temporal pt é umprocesso com tendência estacionária se
pt = δ0 + δ1t + xt
onde xt é um processo estacionário (e.g. um processo AR(p) estacionário).
Observações1. pt cresce a linearmente à taxa δ1 e pode se assemelhar a um passeioaleatório com drift.2. Assumindo que xt tem média zero, temos que por um ladoE [pt ] = δ0 + δ1t e por outro Var [pt ] = Var [xt ], finito e invariante3. Podemos remover a não-estacionariedade na média regredindo pt em t.
Modelos Não Estacionários
Processo ARIMA(p,1,q): pt é um processo autoregressivo integradocom média móvel se rt = ∆pt = pt −pt−1 segue um processo estacionárioARMA(p,q)
Observações1. Podemos pensar pt como sendo o log do preço, pt = ln (Pt) de umaação e portanto a diferença rt = ∆pt = ln (Pt/Pt−1) o log-retorno2. De maneira mais geral, podemos definir um processo ARIMA(p,d,q),onde d indica o número de diferenciações necessárias para atingirestacionariedade3. Considere d = 2, neste caso teremos:
∆2pt = ∆pt −∆pt−1 = pt −2pt−1 + pt−2
Modelos Não Estacionários
Como detectar não estacionariedade?
1. Visualmente (graficamente)
2. Teoria econômica
3. Testando a presença de raíz unitária
Modelos Não Estacionários
Testes de raíz unitáriaConsidere a seguinte especificação:
pt = φ1pt−1 + εt
Queremos testar se φ1 = 1, ou seja, se pt é uma passeio aleatório semdrift.Poderíamos testar se α = φ1−1 é igual a zero utilizando um teste t:
∆pt = (φ1−1)pt−1 + εt = αpt−1 + εt
No entanto, nesse caso a estatística t está incorreta e precisa serajustada
Modelos Não Estacionários
Teste Dickey Fuller de raíz unitária:
H0 : α = 0 vs Ha : α < 0
DF ≡ t− ratio =α̂
std (α̂)
Dependendo da especificação utilizada e do tamanho da amostra, oajuste necessário na estatística t será diferente. Os valores podem serobtidos por meio de simulações de Monte CarloTabelas existem para as seguintes especificações:
τ : ∆pt = αpt−1 + εt
τµ : ∆pt = µ + αpt−1 + εt
ττ : ∆pt = µ + δ t + αpt−1 + εt
Modelos Não EstacionáriosTeste Augmented Dickey Fuller (ADF) de raíz unitária:
H0 : β = 0 vs Ha : β < 0
ADF =β̂
std(
β̂
)Amplia a possibilidade de especificações ao incluir o componenteautoregressivo AR(P):
τ : ∆pt = βpt−1 +p−1
∑i=1
λi ∆pt−i + εt
τµ : ∆pt = µ + βpt−1 +p−1
∑i=1
λi ∆pt−i + εt
ττ : ∆pt = µ + δ t + βpt−1 +p−1
∑i=1
λi ∆pt−i + εt