Top Banner
Series de tiempo Profesor: Andrés Ramírez Hassan Universidad EAFIT 21/07/2010 1 Profesor: Andrés Ramírez Hassan
128

presentación series de tiempo

Mar 06, 2015

Download

Documents

Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: presentación series de tiempo

Series de tiempo

Profesor: Andrés Ramírez HassanUniversidad EAFIT

21/07/2010 1Profesor: Andrés Ramírez Hassan

Page 2: presentación series de tiempo

Series de tiempoEl objetivo de los modelos de pronóstico es reducir la

incertidumbre asociada a fenómenos desconocidos para el tomador de decisiones. Las decisiones adoptadas tienen como consecuencia diferentes implicaciones asociadas; finalmente el

objetivo es tomar la decisión que optimice la función de beneficios y/o pérdida.

21/07/2010 Profesor: Andrés Ramírez Hassan 2

y/o pérdida.

Para tales efectos se presentan una serie de técnicas que se pueden clasificar de la siguiente manera:

Page 3: presentación series de tiempo

Series de tiempoMétodos de pronóstico

Métodos cualitativos

Brainstorming

Métodos cuantitativos

Análisis causal Análisis univariante

Delphi

Cross-impact

Modelos uniecuacionales

Modelos multiecuacionales

Descomposición

Cálculo de tendencia(Tendencia global)

Desestacionalización

Alisamiento exponencial

(Tendencia Local)ARIMA univariantes

21/07/2010 Profesor: Andrés Ramírez Hassan 3

),,,( ttttt isctfy

¿Cuándo se debe aplicar cada metodología?

Page 4: presentación series de tiempo

Series de tiempoLas información muestral con la cual se elaboran los ejercicios de inferencia estadística puede ser de corte transversal, series de tiempo o datos de panel.

Definición (proceso estocástico): Sea un espacio de probabilidad, un vector aleatorio ),,(),,(:)( nn PBRPFwX

),,( PF

21/07/2010 Profesor: Andrés Ramírez Hassan 4

probabilidad, un vector aleatorio y un conjunto de índices enteros no negativos. Un proceso estocástico se define como , es decir, es una colección de variables aleatorias. Si t está fijo, entonces será una variable aleatoria, en tanto que si se fija w, será una función medible de t.Ejemplos: una sucesión de lanzamientos de una moneda, una secuencia de extracciones de cartas de una baraja, otros?.

),,(),,(:)( Xnt

nt PBRPFwX

Tt T

ttwX 1)(

0)( twX

twwX )(0

Page 5: presentación series de tiempo

Series de tiempo

21/07/2010 Profesor: Andrés Ramírez Hassan 5

Veamos una como realizar un movimiento Browniano en Eviews.

Page 6: presentación series de tiempo

Series de tiempoLas características de un proceso estocástico se pueden hacer bien sea a través de la función de distribución conjunta o a través de los momentos.Dado fijos, entonces sea la función de distribución conjunta, luego el proceso está perfectamente caracterizado por ésta, dado T finito. Pero en general este

Tttt ,...,, 10 Tttt XXXF ,...,,

10

21/07/2010 Profesor: Andrés Ramírez Hassan 6

caracterizado por ésta, dado T finito. Pero en general este procedimiento para caracterizar el proceso estocástico es complejo.Sea la media del vector aleatorio, y la matriz de covarianzas definida como .En lo siguiente se trabajará el caso particular n = 1, luego se tiene:

)( tt XE)))(((),(,

Tttssstts XXEXXCov

2/1,

,

))()((

),(

)))(((),(

ts

stts

ttssstts

XVarXVar

XXCov

XXEXXCov

Page 7: presentación series de tiempo

Series de tiempoUna serie de tiempo es una realización específica de un proceso estocástico a través del tiempo, es decir, para cada t se obtiene una muestra aleatoria de tamaño uno.En ciencias sociales, el científico no controla el experimento, y además sólo tiene la posibilidad de contemplar una sola realización del fenómeno para t fijo, luego se deben imponer una

21/07/2010 Profesor: Andrés Ramírez Hassan 7

realización del fenómeno para t fijo, luego se deben imponer una serie de condiciones sobre el proceso estocástico para poder caracterizarlo.Definición (proceso estacionario estricto): Sea F función de distribución de probabilidad del proceso estocástico para T finito, entonces, el proceso se dice estacionario en sentido estricto si y sólo si . ),...,,(),...,,(

1010 mtmtmtttt TTXXXFXXXF

Page 8: presentación series de tiempo

Series de tiempoDefinición (proceso estacionario débil): un proceso estocástico es débilmente estacionario si y sólo si:

kktt

t

t

XXE

tXE

tXE

)))((()3

)()2

)()122

21/07/2010 Profesor: Andrés Ramírez Hassan 8

Definición (proceso estocástico ergódico): Sea un proceso estocástico, éste se dice ergódico si para dos funciones acotadas f y g, tal que, se cumple,

Coloquialmente, cada observación tiene información única.

T

ttwX 1)(

RRgyRRf mn ::

),...,,(),...,,((

),...,,(),...,,((

11

11

kmtktktnttt

kmtktktntttk

XXXEgXXXfE

XXXgXXXfELim

Page 9: presentación series de tiempo

Series de tiempoUna condición necesaria para que se cumpla el supuesto de ergodicidad es que .

Bajo estas condiciones, es decir, estacionariedad y ergodicidad, el teorema de ergodicidad establece que .

0k

kLim

..ˆ sa

21/07/2010 Profesor: Andrés Ramírez Hassan 9

Tarea:Definición de convergencia en distribución, convergencia en probabilidad, convergencia en media cuadrática y convergencia casi segura.

Page 10: presentación series de tiempo

Series de tiempo¿Porqué estudiar los procesos lineales?La respuesta está en el teorema de descomposición de Wold (1938).Teorema (Descomposición de Wold): Todo proceso estocástico débilmente estacionario puede ser representado en la siguiente forma:

1* ),...,( itiptttt XXXEX

21/07/2010 Profesor: Andrés Ramírez Hassan 10

Donde es ruido blanco ???, y .

Además, es el predictor lineal óptimo, el cual no está correlacionada con el ruido rezagado. Tarea: Leer el apéndice uno y dos de Uriel y Peiro o capítulo uno de Enders. Para aplicaciones económicas capítulos 16 y 17 de Chiang.

0

1 ),...,(i

itiptttt XXXEX

t 10

0

2

ii

),...,( 1*

pttt XXXE

Page 11: presentación series de tiempo

Series de tiempoModelos Lineales

Modelo Autorregresivo (AR)

•AR(1)

Utilizando el operador de rezagos

Donde

ttt eYY 11

tt eYL )1( 1

21/07/2010 Profesor: Andrés Ramírez Hassan 11

Donde

Se asumirá que el proceso inicia en - y es estacionario.

tt1

,...2,10),(

1

),0(~ 2

keYCov

e

tkt

et

Page 12: presentación series de tiempo

Series de tiempoModelos Lineales

Modelo Autorregresivo (AR)

•AR(1)

1)(

0)(

2

2

0

YVar

YE

et

t

21/07/2010 Profesor: Andrés Ramírez Hassan 12

Simular: Un modelo AR(1) se puede expresar como un MA().

¿Qué pasa si el proceso es de la forma ?

,..2,1,

),(

1)(

1

11

21

0

k

YYCov

YVar

kk

kkktt

t

ttt eYcY 11

tttttt eYYeYY 11 8.0,8.0

Page 13: presentación series de tiempo

Series de tiempo•AR(2)

tt

tttt

eYLL

eYYY

)1( 221

2211

,...2,1,),(

)(

0)(2

22110

kYYCov

YVar

YE

et

t

21/07/2010 Profesor: Andrés Ramírez Hassan 13

,...2,1,

,...2,1,),(

2211

2211

k

kYYCov

kkk

kkktt

Page 14: presentación series de tiempo

Series de tiempo•AR(2)Ecuaciones Yule-Walker

Simular

2

1

1

1

1

2

1

1

1

21/07/2010 Profesor: Andrés Ramírez Hassan 14

Simular

tttt

tttt

tttt

tttt

eYYY

eYYY

eYYY

eYYY

21

21

21

21

9.05.1

9.05.1

5.04.0

5.04.0

Page 15: presentación series de tiempo

Series de tiempo•AR(p)

Se requiere que las raíces de la anterior expresión caigan fuera del

0...1)(

)(

...

221

2211

pp

tt

tptpttt

LLLL

eYL

eYYYY

21/07/2010 Profesor: Andrés Ramírez Hassan 15

Se requiere que las raíces de la anterior expresión caigan fuera del circulo unitario para que el proceso sea estacionario.

Tomando los rho’s iniciales como condiciones iniciales determinadas a partir de los coeficientes phi’s, la solución de la anterior expresión permite calcular los valores de los rho’s para kmayores o iguales a p.

,...2,1,...2211 kpkpkkk

Page 16: presentación series de tiempo

Series de tiempo•AR(p)Particularizando la ecuación en diferencias para las correlaciones en k= 1, 2,…, p, se obtiene el sistema de ecuaciones de Yule-Walker, donde:

p

p

...1

...1

2

1

1

21

11

2

1

21/07/2010 Profesor: Andrés Ramírez Hassan 16

Además se puede pasar de un proceso AR(p) a un MA( )

ppp

p

p

.

.

.

1..

.

.

.

.

.

.

.

.

.

.

.

.

.

.2

21

212

tt eL

Y)(

1

Page 17: presentación series de tiempo

Series de tiempo•MA(1) invertible

0),(

,1

),0(~

)1(

'

1

2

111

tt

et

tttt

eeCov

invertible

e

eLeeY

)1( 222

21/07/2010 Profesor: Andrés Ramírez Hassan 17

¿Cuál es el máximo valor que toma rho?Dado que el proceso sea invertible, este se puede expresar como un AR().

Simular

1

1

8.0

8.0

ttt

ttt

eeY

eeY

10

1,1

)1(

21

1

21

22

k

kk

Page 18: presentación series de tiempo

Series de tiempo•MA(2) invertible

0),(

),0(~

)1(

'

2

2212211

tt

et

ttttt

eeCov

e

eLLeeeY

)1( 22

21

22

21/07/2010 Profesor: Andrés Ramírez Hassan 18

2,0

2,1

1,1

22

21

2

22

21

211

k

k

k

k

Page 19: presentación series de tiempo

Series de tiempo•MA(2) invertible

Simular

21

21

21

9.05.1

5.04.0

5.04.0

tttt

tttt

tttt

eeeY

eeeY

eeeY

21/07/2010 Profesor: Andrés Ramírez Hassan 19

21 9.05.1 tttt eeeY

Page 20: presentación series de tiempo

Series de tiempo•MA(q) invertible

,...1,0

,...,2,1,)...(

0,...1

...

211

2221

2211

qk

qk

k

eeeeY

eqkqkk

eq

k

qtqtttt

21/07/2010 Profesor: Andrés Ramírez Hassan 20

Para que sea invertible se requiere que las raíces de la siguiente expresión caigan fuera del circulo unitario.

,...1,0 qk

0...1 221 q

qLLL

,...1,0

,...,2,1,...1

)...(22

1

11

qk

qkq

qkqkk

k

Page 21: presentación series de tiempo

Series de tiempo•ARMA(1,1)

Simular

,...3,2,

1,21

))(1(

11

2111

1111

1111

k

k

eeYY

k

k

tttt

21/07/2010 Profesor: Andrés Ramírez Hassan 21

Simular

11

11

11

11

3.09.0

5.08.0

8.08.0

5.05.0

tttt

tttt

tttt

tttt

eeYY

eeYY

eeYY

eeYY

Page 22: presentación series de tiempo

Series de tiempo•ARMA(p, q)

Para que el modelo sea estacionario se requiere que las raíces de la ecuación polinomial se encuentren fuera del circulo unitario. Igualmente para que el modelo sea invertible se requiere que las raíces de la ecuación polinomial caigan fuera del circulo unitario. Si se cumplen las condiciones de estacionariedad

tt

qtqttptptt

eLYL

eeeYYY

)()(

...... 1111

)(L

)(L

21/07/2010 Profesor: Andrés Ramírez Hassan 22

circulo unitario. Si se cumplen las condiciones de estacionariedad e invertibilidad, el modelo se puede expresar como un MA() o un AR(), respectivamente. En este caso se tiene quePara determinar los primeros q valores de rho interviene la parte de medias móviles del modelo. Además es conveniente factorizar la parte AR y la parte MA para verificar la presencia de raíces repetidas y no sobre parametrizar el modelo.

qkpkpkk ,0...11

Page 23: presentación series de tiempo

Series de tiempoUno de los supuestos trascendentales es que el procesoestocástico en consideración es estacionario, lo cual algunas vecesno se cumple con las series económicas, luego se debe recurrir aciertas transformaciones para volver la serie en consideraciónestacionaria. Se deben realizar transformaciones bien sea paravolver constante la media o volver constante la varianza.Normalmente la diferenciación de la serie vuelve la serieestacionaria en media y transformaciones tipo Box-Cox vuelven la

21/07/2010 Profesor: Andrés Ramírez Hassan 23

estacionaria en media y transformaciones tipo Box-Cox vuelven laserie estacionaria en varianza. Específicamente, si se debenrealizar d diferenciaciones de la serie para que ésta seaestacionaria se tieneDonde w es estacionaria en media.

td

td

t YLYw )1(

Page 24: presentación series de tiempo

Series de tiempoLa transformación Box-Cox para volver las series estacionarias envarianza está determinada por la siguiente función:

La diferenciación genera los denominados modelos ARIMA(p,d,q).

0,ln

0,1

t

t

t

Y

YY

21/07/2010 Profesor: Andrés Ramírez Hassan 24

Tarea: analizar los momentos del random walky el tratamiento como expansiones de series de Taylor alrededorde la diferencia logarítmica neperiana. Además realizar todos losejercicios del capítulo 3 de Uriel y Peiro.

ttd eLYLL )()1)(( )(

ttt eYY 1

Page 25: presentación series de tiempo

Series de tiempoElaboración de modelos ARIMA

Mecanismos de generación de una serie temporalProceso estocástico

),0(

)()()1)((2

)(

INe

eLYLL

e

tqtd

p

Generación

21/07/2010 Profesor: Andrés Ramírez Hassan 25

Realización

Generación

Tyyy ,...,, 21

Page 26: presentación series de tiempo

Series de tiempoElaboración de modelos ARIMA

Mecanismos de generación de una serie temporalProceso estocástico

),0(

)()()1)((2

)(

INe

eLYLL

e

tqtd

p

21/07/2010 Profesor: Andrés Ramírez Hassan 26

Realización

Inferencia

Tyyy ,...,, 21

Page 27: presentación series de tiempo

Series de tiempoElaboración de modelos ARIMA

21/07/2010 Profesor: Andrés Ramírez Hassan 27

Page 28: presentación series de tiempo

Series de tiempoIdentificación de procesos

•Función de Auto Correlación Estimada (FACE)•Función de Auto Correlación Parcial Estimada (FACPE)

N

N

ktktt

k

wwwwr 1

))((

21/07/2010 Profesor: Andrés Ramírez Hassan 28

La secuencia de r constituye el FACE (Correlograma) donde no serecomienda estimar auto correlaciones superiores a un tercio deltamaño de la muestra debido a la pérdida de eficiencia.Bajo la hipótesis nula , se distribuye asintóticamente normalcon media cero, varianza y covarianzas dadas por las siguientesexpresiones:

N

tt

k

wwr

1

2)(

0k kr

Page 29: presentación series de tiempo

Series de tiempoIdentificación de procesos

Para los procesos MA(q), se sabe que para k > q, los coeficientes deautocorrelación teóricos son iguales a cero, luego las sumatoriasexpuestas arriba son finitas. Además en un proceso MA(q), se

)222(1

)(

)24(1

)(

2

222

skkkskskskksksskk

kkkkkk

NrrCov

NrVar

21/07/2010 Profesor: Andrés Ramírez Hassan 29

expuestas arriba son finitas. Además en un proceso MA(q), sepuede prescindir de todos los términos de arriba, excepto delprimero. Luego para un proceso MA(q) se tienen las siguientesaproximaciones:

q

qsskk

q

qk

NrrCov

NrVar

1)(

1)( 2

Page 30: presentación series de tiempo

Series de tiempoIdentificación de procesosLa aproximación empírica a la varianza está dada por la siguienteexpresión:

Tarea: Bajo este marco ¿Cuál es el intervalo de confianzaasintótico con nivel de confianza asintótico del 95% para el

1,211

1,)( 1

1

2

1

krN

kNrVar k

k

21/07/2010 Profesor: Andrés Ramírez Hassan 30

asintótico con nivel de confianza asintótico del 95% para elcoeficiente de correlación muestral?

La anterior expresión y los correspondientes intervalos de confianzason de gran utilidad para realizar pruebas de hipótesis al respectode la significancia de los coeficientes de autocorrelación. Sinembargo Box-Ljung propusieron una expresión que se acomodamejor a muestras finitas

Page 31: presentación series de tiempo

Series de tiempoIdentificación de procesos

m(=raiz cuadrada(N)) es el retardo máximo a incluir.

Esta prueba sirve para contrastar la hipótesis nula de que todos loscoeficientes de correlación hasta de orden k son iguales a cero. El

m

kk kNrNNQ

1

2 )/()2(

21/07/2010 Profesor: Andrés Ramírez Hassan 31

coeficientes de correlación hasta de orden k son iguales a cero. Elestadístico de prueba se distribuye Chi cuadrado(m).

Tomar en consideración que la FACE es de gran ayuda paraencontrar el orden del proceso MA(q).

Page 32: presentación series de tiempo

Series de tiempoIdentificación de procesosEn un proceso AR(1), y están relacionados pese a que esteúltimo no aparezca en la ecuación, específicamente el efecto se daa través de . Esto igualmente ocurre en cualquier proceso AR(p)por la interacción entre y a través de efectos indirectos. Laidea de la Función de Auto Correlación Parcial Teórica (FACPT) esencontrar el efecto directo de sobre .

tY 2tY

tY ktY

1tY

ktY tY

21/07/2010 Profesor: Andrés Ramírez Hassan 32

La construcción de la FACPT se fundamenta en las ecuaciones deYule-Walker.

Page 33: presentación series de tiempo

Series de tiempoIdentificación de procesos

p

p

.

.

.

.

.

.

.

.

.

.

.

.

.

.

....1

...1

.

.

.2

1

1

21

11

2

1

21/07/2010 Profesor: Andrés Ramírez Hassan 33

Específicamente,

pppp .

1......

21

21

212

22

111

1

Page 34: presentación series de tiempo

Series de tiempoIdentificación de procesos

En general,

(*)1

1

,1

1

1,1

k

jjk

k

jjkjkk

kk

21/07/2010 Profesor: Andrés Ramírez Hassan 34

Donde

Para un proceso AR(p) no hay relación directa entre y para k> p. Luego todos los valores de para k > p serán iguales a cero.

Tarea: ¿Qué pasa con la FACPT del proceso MA(1)?

11

,1

j

jjk

1,...,2,1,,1,1 kjjkkkkjkkj

tY ktY

kk

Page 35: presentación series de tiempo

Series de tiempoIdentificación de procesosEn forma alternativa si se resuelve sucesivamente para AR(1),AR(2), … se obtienen los siguientes coeficientes:

333231

2221

11

)3(

)2(

)1(

AR

AR

AR

21/07/2010 Profesor: Andrés Ramírez Hassan 35

1,1,13,12,11,1

321

333231

...)1(

...)(

.

.

.

)3(

ppppppp

ppppp

pAR

pAR

AR

Page 36: presentación series de tiempo

Series de tiempoIdentificación de procesosSi se toman los últimos coeficientes para cada AR se obtiene laFACP Teórica.En un proceso ARMA(p, q) se tendrán infinitos valores diferentesde cero tanto en FACT como en la FACPT. Tarea: ¿Por qué?

Hay tres métodos equivalentes para obtener el FACPE:

21/07/2010 Profesor: Andrés Ramírez Hassan 36

1) Se obtiene reemplazando en el sistema de ecuaciones Yule-Walker los coeficientes de autocorrelación teóricos por loscoeficientes estimados.

2) Se obtienen de forma recursiva a través de (*)

Page 37: presentación series de tiempo

Series de tiempoIdentificación de procesos3) A partir de las siguientes regresiones

tttt

ttt

ewww

eww

.

.222121

111

21/07/2010 Profesor: Andrés Ramírez Hassan 37

En un proceso AR(p), los coeficientes de autocorrelación parcial sedistribuyen aproximadamente como una normal con media 0 yvarianza

tktkktktkt ewwww ...

.

.

2211

pkN

Var kk ,1

)ˆ(

Page 38: presentación series de tiempo

Series de tiempoIdentificación de procesos

Calcular FACT, FACE, FAPCT y FAPCE de los siguientes procesos:

11

21

21

5.08.0

5.04.0

5.04.0

tttt

tttt

tttt

eeww

eeew

ewww

21/07/2010 Profesor: Andrés Ramírez Hassan 38

11 5.08.0 tttt eeww

Page 39: presentación series de tiempo

Series de tiempoIdentificación de procesosSe debe tener presente el efecto del tamaño de la muestra para laidentificación del p.g.d. Algunos autores consideran que untamaño de muestra reducido es inferior a 50 observaciones.Veamos el siguiente ejercicio de simulación para determinar elimpacto del tamaño de la muestra en la identificación delprocesos:

21/07/2010 Profesor: Andrés Ramírez Hassan 39

Comparar FACT v.s. FACE y FACPT v.s. FACPE1000

100

30

6.0 1

T

T

T

eww ttt

Page 40: presentación series de tiempo

Series de tiempoIdentificación de procesosFACT y FACPT en modelo AR(p), MA(q) y ARMA(p,q)

21/07/2010 Profesor: Andrés Ramírez Hassan 40

Page 41: presentación series de tiempo

Series de tiempoAnálisis de estacionariedadLas series que entran en los modelos ARIMA deben serestacionarias, por consiguiente generalmente se deben realizardos tipos de transformaciones:1) La toma de diferencias de primer orden d veces2) La transformación Box-CoxPara la determinación de d, se utilizan tres herramientas:• El análisis gráfico

21/07/2010 Profesor: Andrés Ramírez Hassan 41

• El análisis gráfico• Función de Auto Correlación Estimada (FACE)• Pruebas de raíces unitarias (Estocástica-Determinística)

• Dickey-Fuller Aumentado• Dickey-Fuller con Mínimos Cuadrados Generalizados sin

tendencia (Tarea)• Phillips-Perron (Tarea)• Kwiatkowski, Phillips, Schmidt y Shin (KPSS) (Tarea)• Ng y Perron (Tarea)

Page 42: presentación series de tiempo

Series de tiempoAnálisis de estacionariedad

Dickey-Fuller Aumentado

La prueba se evalúa con el ratio t convencional, es decir:0...0. 10

1

1120

HsvH

eYYtaaY t

p

iititt

21/07/2010 Profesor: Andrés Ramírez Hassan 42

La prueba se evalúa con el ratio t convencional, es decir:

El cual no sigue la distribución t-student estándar bajo la hipótesisnula. MacKinnon (1991, 1996) tabuló a través de simulaciones losvalores críticos de la prueba a diferentes niveles de significancia.

))ˆ(/(ˆ StDesvt

Page 43: presentación series de tiempo

Series de tiempoProcedimiento para corroborar raíces unitarias

21/07/2010 Profesor: Andrés Ramírez Hassan 43

Page 44: presentación series de tiempo

Series de tiempoAnálisis de estacionariedad

Realizar simulación:

ttt

ttt

ttt

eYtaaY

eYaY

eYY

110

10

1

21/07/2010 Profesor: Andrés Ramírez Hassan 44

Veamos la potencia de las pruebas estudiadas, es decir, ¿Qué pasacuando el parámetro autorregresivo es cercano a uno en valorabsoluto?

Ahora,Tarea: ¿Cuáles son las consecuencias de una sobrediferenciación?

ttt eYtaaY 110

Page 45: presentación series de tiempo

Series de tiempoAnálisis de estacionariedad

Tratamiento de la no estacionariedad en varianza

• Análisis gráfico de la serie• Gráfico rango-media

21/07/2010 Profesor: Andrés Ramírez Hassan 45

),(ln

)exp(2

10

10

et

tt

tNY

etY

)5.0exp()exp()(

)5.0exp()(2

102

10

210

eet

et

t

ttYVar

tYE

NormalLogY

Page 46: presentación series de tiempo

Series de tiempoAnálisis de estacionariedad

Tratamiento de la no estacionariedad en varianza

Se utiliza el rango como medida de dispersión dado su sencillez.

)()1)5.0)(exp(()( 2tett YkEYEYVar

21/07/2010 Profesor: Andrés Ramírez Hassan 46

Se utiliza el rango como medida de dispersión dado su sencillez.

Para el gráfico en cuestión se divide la serie en intervalos y secalcula la media y el rango asociado a estos. Si hay una tendenciaen el scatter plot hay evidencia que la serie no es estacionaria envarianza.Tarea:¿Cómo es el tratamiento de un proceso con media no nula?Realizar los ejercicios del capítulo 4 de Uriel y Peiro

Page 47: presentación series de tiempo

Series de tiempoEstimación por Máxima Verosimilitud (Hamilton, capítulo 5)IntroducciónConsidere un modelo ARMA(p, q):

El problema que surge es como estimar los parámetros quesubyacen este modelo, una vez identificado el probable procesogenerador de datos.

qtqttptptt eeeYYcY ...... 1111

21/07/2010 Profesor: Andrés Ramírez Hassan 47

generador de datos.SeaAdemás suponga que se han conservado T observaciones una veztransformado el modelo para que la serie en cuestión seaestacionaria.El procedimiento será calcular la función de densidad conjunta,

)',,...,,,...,,( 211 qpc

):,...,( 1,..., 1yyf tYYT

Page 48: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudIntroducciónEl MLE de Ѳ será el valor que maximice la función deverosimilitud.Este procedimiento requiere especificar una función dedistribución para el proceso ruido blanco. Normalmente se asumeque este se distribuye Gaussiano, ),0(... 2Ndiiet

21/07/2010 Profesor: Andrés Ramírez Hassan 48

Pese a que este supuesto es fuerte, la estimación de Ѳ esconsistente aunque el proceso para el ruido no sea Gaussiano,pero se debe especificar correctamente la media del proceso. Elanterior procedimiento se denomina QMLE. Además, los erroresestándar estimados deben ser corregidos White (1982).

t

Page 49: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso AR(1) (Máxima verosimilitud exacta)

Dada la representación MA() de este proceso se tiene que esGaussiana.Bajo este contexto,

ttt eYcY 11

tY

21/07/2010 Profesor: Andrés Ramírez Hassan 49

Ahora considere la distribución de condicionado a que ,

)1/(2

))1/((

)1/(2

1),,:(

21

2

211

21

2

2111

cy

ExpcyfY

2Y 11 yY

2

2112

2

2112 2

))

2

1),,:(

12

ycy

Expcyyf YY

Page 50: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso AR(1) (Máxima verosimilitud exacta)

Luego la distribución conjunta de las observaciones 1 y 2 es

Tomando en consideración que los valores de importanpara sólo a través de . La función de densidad para la

),,:(),,:(),,:,( 2112

211

2112, 12112

cyyfcyfcyyf YYYYY

11,..., tYY

21/07/2010 Profesor: Andrés Ramírez Hassan 50

para sólo a través de . La función de densidad para laobservación t condicionada a las observaciones precedentes estádada por:

tY 1tY

2

211

2

211

2111,...,

2

))

2

1

),,:(),,:,...,(111

tt

ttYYttYYY

ycyExp

cyyfcyyyftttt

Page 51: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso AR(1) (Máxima verosimilitud exacta)

Así,

Entonces,

T

tttYYYTTYYY yyfyfyyyf

ttTT2

1111,...,, ):():():,...,,(1111

21/07/2010 Profesor: Andrés Ramírez Hassan 51

Encontrar el MLE para Ѳ requiere la utilización de métodosnuméricos. Entonces surge la alternativas de MLE condicionado,bajo este contexto la observación inicial se trata como uncomponente determinístico y el procedimiento de MV sedesarrolla condicionado a esta primera observación.

T

ittYYY yyfyfL

tt2

11 )):(log():(log)(11

Page 52: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso AR(1) (Máxima verosimilitud condicionada)

Si el tamaño de la muestra es grande, omitir la primeraobservación no ocasiona problemas significativos en el proceso deestimación.

T

t yyfL 1 )):(log()(

21/07/2010 Profesor: Andrés Ramírez Hassan 52

Este procedimiento conlleva a los resultados estándar de MCO.Los resultados obtenidos por el enfoque exacto y el enfoquecondicional llevan a los mismos resultados si el tamaño de lamuestra es grande y el proceso es estacionario. Si el proceso es noestacionario, el enfoque exacto implica que el estimador de Ѳ esinconsistente (Porqué?), mientras que el foque condicional generaresultados consistentes.

i

tYY yyfLt

21 )):(log()(

1

Page 53: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso AR(p) (Máxima verosimilitud exacta)

Sea el vector de las primeras p observaciones de las variables,y el vector de las medias .

Cada elemento del vector de medias está dado por:

Además, la matriz de covarianzas entre las primeras p

),...,( 1 pp yyy ),...,( p

)...1/( 1 pc

21/07/2010 Profesor: Andrés Ramírez Hassan 53

Además, la matriz de covarianzas entre las primeras pobservaciones será:

)...1/( 1 pc

021

201

110

2

...

.....

.

.

....

...

pp

p

p

pV

Page 54: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso AR(p) (Máxima verosimilitud exacta)

Así, la f.d.p conjunta para las primeras p observaciones será:

2

1

11

2

)()'(

2/12/211,...,,)2(

1):,...,,(

pp

pp

yVy

pppYYY ExpV

yyyf

21/07/2010 Profesor: Andrés Ramírez Hassan 54

Para el resto de las observaciones se tendrá,

)2( V

2

211

2

1,...,11,...,

2

))....

2

1

):,...,():,...,(111

ptptt

ptttYYYttYYY

yycyExp

yyyfyyyfpttttt

Page 55: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso AR(p) (Máxima verosimilitud exacta)

Luego, la f.d.p conjunta para toda la muestra será:

T

ptttYYYppYYY

TTYYY

yyyfyyyf

yyyfTT

1,...,11,...,,

11,...,,

):,...,():,...,,(

):,...,,(11

21/07/2010 Profesor: Andrés Ramírez Hassan 55

Luego,

ptptttYYYppYYY yyyfyyyf

ptttpp1

1,...,11,...,, ):,...,():,...,,(111

T

pt

ptptt

ppppp

p

yycy

yVy

VTTL

12

211

1´2

1´2

2

))....

)()'(2/1

log2/1)log(2/)2log(2/)(

Page 56: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso AR(p) (Máxima verosimilitud condicionada)

Nuevamente, el ejercicio de MV condicionado a las primeras pobservaciones, se reduce a estimación por OLS.

Tarea: verificar anterior afirmación.

21/07/2010 Profesor: Andrés Ramírez Hassan 56

Veamos ahora un ejercicio de MV de un AR(1).

Tarea para entregar: Programar un ejercicio de MV para unAR(2).

Page 57: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Máxima verosimilitud condicionada)

Si el valor de la perturbación es conocido con antelación entonces,

11 ttt eeY

2

211

21 22

1):(

1

tt

tteY

eyExpeyf

tt

21/07/2010 Profesor: Andrés Ramírez Hassan 57

Suponga que se sabe con certeza que , luegoDado el valor de entonces es conocido. De esta forma,

22

00 e ),(0 201 NeY

1y 1e

2

2112

20120, 22

1):0,(

012

eyExpeyyf eYY

Page 58: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Máxima verosimilitud condicionada)

Dado que es conocido, entonces puede ser calculado.

Operando recursivamente se encuentra que dado , se puedeobtener la secuencia completa de las perturbaciones estocásticasa través de las observaciones de la serie, es decir:

1e 2e

00 e

21/07/2010 Profesor: Andrés Ramírez Hassan 58

a través de las observaciones de la serie, es decir:

Luego se tiene que

11 ttt eye

2

2

2

10110,,...,

22

1

):():0,,...,(1011

t

tteYtteYYY

eExp

eyfeyyyftttt

Page 59: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Máxima verosimilitud condicionada)De esta forma, la f.d.p. conjunta será:

T

ttteYYYeY

TTeYYY

eyyyfeyf

eyyyf

tt

TT

20110,,...,010

0110,...,,

):0,,...,():0(

):0,...,,(

01101

011

21/07/2010 Profesor: Andrés Ramírez Hassan 59

Luego, el logaritmo de la función de verosimilitud será:

Aunque esta función es fácil de programar, el logaritmo de lafunción de verosimilitud implica un función no lineal de losparámetros bastante compleja. Si imponer no entrañamayor problema; en caso contrario este procedimiento no essensato.

T

t

teTTL

12

22

2)log(2/)2log(2/)(

11 00 e

Page 60: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)

Sea el vector de las primeras p observaciones de las variables,y el vector de las medias .

La matriz de varianzas y covarianzas está dada por:

Específicamente para un MA(1) se tiene:

),...,( 1 TT yyy

),...,( T

)')(( YYE

21/07/2010 Profesor: Andrés Ramírez Hassan 60

Específicamente para un MA(1) se tiene:

)1(...00

.....

.

.

.0...)1(

0...)1(

21

21

21

2

Page 61: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)

La función de verosimilitud será:

La matriz puede ser descompuesta de la siguiente manera:

2

)()'()2():(

12/12/ yyExpyf T

Y

21/07/2010 Profesor: Andrés Ramírez Hassan 61

La matriz puede ser descompuesta de la siguiente manera:'ADA

Page 62: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)

Donde

001

1

0001

21

1

21/07/2010 Profesor: Andrés Ramírez Hassan 62

1...1

)...1(00

0...1

)1(0

1

)1(21

21

)2(21

211

41

21

211

1

n

n

A

Page 63: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)

Donde

41

21

21

001

0

0001

21/07/2010 Profesor: Andrés Ramírez Hassan 63

)1(21

21

21

21

21

11

2

...1

...1000

0...00

001

10

n

n

D

Page 64: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)

Reemplazando y tomando en consideración que el determinantede A es uno, la función de verosimilitud será:

2

~'~)2():(

12/12/ yDyExpDyf T

Y

21/07/2010 Profesor: Andrés Ramírez Hassan 64

Donde

2

)1(21

21

21

2122

1)1(21

21

)2(21

211

1

...1...1

)~(

,...2,~)...1(

)...1(

1,

)(~

t

t

ttt

tt

t

t

t

YEd

tyy

ty

yAy

Page 65: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(1) (Función de verosimilitud exacta)

El logaritmo de la función de verosimilitud será:

T

t tt

tT

ttt d

ydTL

1

2

1

~2/1)log(2/1)2log(2/)(

21/07/2010 Profesor: Andrés Ramírez Hassan 65

Page 66: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(q) (Función de verosimilitud condicional)

Asumiendo,

Entonces,

qtqttt eeeY ...11

0... 110 qeee

21/07/2010 Profesor: Andrés Ramírez Hassan 66

Entonces,

Esta expresión es útil para procesos invertibles.

T

t

t

TYY

eTT

yyfLT

12

22

010,...,

2/1)log(2/)2log(2/

):0,...,(log)(01

Page 67: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(q) (Función de verosimilitud exacta)

Donde

2

)()'()2():(

12/12/ yyExpyf T

Y

0.....00

21/07/2010 Profesor: Andrés Ramírez Hassan 67

qk

qkkqqkkkk

q

q

,0

,...,1,0,...(

......0

..

.....

..

.....

..

.....

22112

1

0

1

Page 68: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(q) (Función de verosimilitud exacta)

Utilizando nuevamente la representación:Donde, las definiciones de A y D se pueden encontrar en lasección 4.4. del texto de Hamilton (Time Series Analysis, 1994).Específicamente las expresiones 4.4.11 y 4.4.7, respectivamente.

'ADA

21/07/2010 Profesor: Andrés Ramírez Hassan 68

Luego, se tienen las siguientes expresiones:

Page 69: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso MA(q) (Función de verosimilitud exacta)

....

....

....

01

01

0......001

3231

21

aa

a

A

21/07/2010 Profesor: Andrés Ramírez Hassan 69

La función de verosimilitud estará dada por:

T

t tt

tT

ttt d

ydTL

1

2

1

~2/1)log(2/1)2log(2/)(

1.....000.

.

.

.

1

.

.....

.

.

.

.

.

.

.

.

...1....0

0

....

1,

3,22,2

3,12,11,1

TT

qq

qqq

a

aa

aaaA

Page 70: presentación series de tiempo

Series de tiempoEstimación por Máxima VerosimilitudProceso ARMA(p, q)

Ahora se condicionará en los p valores iníciales de y

Así, se pueden estimar las perturbaciones aleatorias a partir de la

qtqttptptt eeeYYcY ...... 1111

0)...,( 11

qppp eeee

),...,( 1 pyyy

21/07/2010 Profesor: Andrés Ramírez Hassan 70

Así, se pueden estimar las perturbaciones aleatorias a partir de lasiguiente ecuación de movimiento recursivamente:

Así, la función de verosimilitud condicionada será:

T

pt

t

pTyYY

epTpT

eyyyfLT

12

22

10,,...,

2/1)log(2/)()2log(2/)(

):,,...,(log)(1

qtqtptpttt eeyycye ...... 1111

Page 71: presentación series de tiempo

Series de tiempoEstimación de procesosEnfoque condicional y no condicional en la estimación de unmodelo AR(p, q).

21/07/2010 Profesor: Andrés Ramírez Hassan 71

Los mecanismos de estimación son en general no lineales, y serealizan a través de mínimos cuadrados y máxima verosimilitud.

Page 72: presentación series de tiempo

Series de tiempoValidación de procesosUn modelo ideal debe cumplir los siguientes requisitos:1) Los residuales del modelo estimado se deben aproximar a un

ruido blanco.2) El modelo estimado es estacionario e invertible.3) Los coeficientes son estadísticamente significativos, y están

poco correlacionados entre sí.4) Los coeficientes del modelo son suficientes para representar la

21/07/2010 Profesor: Andrés Ramírez Hassan 72

4) Los coeficientes del modelo son suficientes para representar laserie.

5) El grado de ajuste es elevado en comparación a otros modelosalternativos.

Page 73: presentación series de tiempo

Series de tiempoValidación de procesosContraste sobre los residuales individuales

En primera instancia se debe realizar una inspección gráfica de losresiduales para determinar la presencia de valores atípicos,tendencias y heterocedasticidad. Luego se realiza la inspección delCorrelograma muestral, el cual involucra la trayectoria de loscoeficientes de autocorrelación muestral.

21/07/2010 Profesor: Andrés Ramírez Hassan 73

coeficientes de autocorrelación muestral.

Si no existe el problema de autocorrelación, teóricamente todaslas correlaciones deben ser iguales a cero. Los coeficientes deautocorrelación muestrales se distribuyen asintóticamente normalcon media cero y varianza 1/T. Se puede establecer un intervalode confianza del 95%, es decir, .

Aunque se debe tener presente que se está sobre estimando elintervalo especialmente en los primeros rezagos.

96.1Trt

Page 74: presentación series de tiempo

Series de tiempoValidación de procesos

Contraste sobre los residuales conjuntos

Box-Ljung propusieron una expresión que se acomoda mejor amuestras finitas:

m

sTrTTQ 2 )/()2(*

21/07/2010 Profesor: Andrés Ramírez Hassan 74

m(=raíz cuadrada(T)) es el retardo máximo a incluir. El cual sedistribuye asintóticamente Chi cuadrado(m – p – q).

La hipótesis nula es que los residuos son independientes entre sí.

s

s sTrTTQ1

2 )/()2(*

Page 75: presentación series de tiempo

Series de tiempoValidación de procesosContraste sobre los residuales heterocedasticidad

Es sensato realizar FACE de los residuales al cuadradoestandarizados para detectar problemas de heterocedasticidad.

21/07/2010 Profesor: Andrés Ramírez Hassan 75

Page 76: presentación series de tiempo

Series de tiempoValidación de procesos

Contraste sobre los parámetros del modelo

•Prueba de significancia individual

•Prueba de significancia conjunta

•Invertibilidad y estacionariedad

21/07/2010 Profesor: Andrés Ramírez Hassan 76

•Invertibilidad y estacionariedad

•Multicolinealidad

Page 77: presentación series de tiempo

Series de tiempoValidación de procesos

Bondad de ajuste del modelo

•Coeficiente de determinación (comparar modelos con igualnúmero de diferenciaciones)

•Coeficiente de determinación corregido (comparar modelos con

21/07/2010 Profesor: Andrés Ramírez Hassan 77

•Coeficiente de determinación corregido (comparar modelos conigual número de diferenciaciones)

•Criterios de información:

•Akaike (1974):

•Schwarz (1978):

Nke /2)ˆln( 2

)ln(/)ˆln( 2 NNke

Page 78: presentación series de tiempo

Series de tiempoValidación de procesos

Contraste sobre la estabilidad de los parámetros del modelo

•Prueba Chow (1960)

eeeN

Ntt

N

tt

N

tt ˆˆˆ

1

22

1

21

1

21

21/07/2010 Profesor: Andrés Ramírez Hassan 78

kN

ee

FN

Ntt

N

tt

Nttt

kNk

2

ˆˆ1

22

1

21

111

2,

1

1

1

Page 79: presentación series de tiempo

Series de tiempoValidación de procesos

Reformulación del modelo

•Raíces cercanas a 1 en el componente AR son indicativas de noestacionariedad, luego se debe diferenciar la serie.

•Raíces cercanas a 1 en el componente MA son indicativas de

21/07/2010 Profesor: Andrés Ramírez Hassan 79

•Raíces cercanas a 1 en el componente MA son indicativas desobre diferenciación.

•El FACE y el FACPE de los residuales luego de estimar el modeloindican caminos a seguir para una mejor especificación yvalidación del modelo.

Page 80: presentación series de tiempo

Series de tiempoPronósticoEl predictor óptimo es aquel que posea el ECM mínimo.

Partiendo de un modelo ARIMA(p, d, q) con media nula entonces,

Se desea predecir a partir de T observaciones los valores de lavariable hasta T+l.

tqtdptqtd

p eLYLeLYL )()()()(

21/07/2010 Profesor: Andrés Ramírez Hassan 80

variable hasta T+l.

Formas alternativas de presentar un modelo:•Versión ARMA:

•Versión MA:

•Versión AR:

qlTqlTlTdplTdplTlT eeeYYY ...... 1111

1,)()()( 00

1

jjlTjlTlTlT eeLeLLY

lTj

jlTjlTlTlTlT eYYYLyLLe

1

1 )()()(

Page 81: presentación series de tiempo

Series de tiempoPronóstico

Se designará por el predictor óptimo para T+l utilizando lainformación disponible hasta T, es decir, la sigma álgebra generadapor dicho conjunto. Bajo los siguientes supuestos:1) Se asumen conocidos los parámetros2) Todas las perturbaciones presentes y pasadas se asumen

conocidas.

TlTY

~

21/07/2010 Profesor: Andrés Ramírez Hassan 81

conocidas.

El criterio de optimalidad se fundamentará en la función de ErrorCuadrático Medio. Es decir,

22 )ˆ()~

( TlTlTTlTlT YYEYYE

Page 82: presentación series de tiempo

Series de tiempoPronóstico

Lo cual implica que el predictor óptimo bajo esta función será:

Y su ECM será:

0

~

jjTjlTlT eY

222 )...1()~

(YECM

21/07/2010 Profesor: Andrés Ramírez Hassan 82

Donde este predictor es insesgado.A partir de esto se puede construir intervalos de predicción al 95%de confianza:

221

21 )...1()

~( elTlTYECM

95.0)))~

((96.1~

( 5.0 TlTTlT YECMYP

Page 83: presentación series de tiempo

Series de tiempoPronóstico

En los pronósticos, las perturbaciones estocásticas sondesconocidas, luego se igualan a su valor medio teórico, es decir,0. En general, la representación MA no es operativa, salvo enprocesos MA finitos, luego es más operativa la transformaciónARMA.

eeeYYY ~...~~~...

~~

21/07/2010 Profesor: Andrés Ramírez Hassan 83

ilsi

ilsiee

jlsiYY

eeeYYY

ilTilT

jlTTjlT

qlTqlTTTdplTdpTlTTlT

,0

,~

,~

~...~~~...

~~11111

Page 84: presentación series de tiempo

Series de tiempoPronósticoVeamos un ejemplo con un modelo ARIMA(1, 1, 0):

A partir de la relación siguiente se obtienen los valores necesariostttt

tttt

tt

tt

eYYY

eYYY

eYLLL

eYLL

2211

2111

211

1

)1(

)1(

)1)(1(

21/07/2010 Profesor: Andrés Ramírez Hassan 84

A partir de la relación siguiente se obtienen los valores necesariospara la construcción de los intervalos:

Luego los pronósticos están dados por:1)()( LL

Período Valor real Pronóstico ECM

T+1

T+2

T+3

11211 TTTT eYYY 1211

~ TTTT YYY

2e

22112 TTTT eYYY TTTTT YYY 2112

~~ )1( 2

12 e

312213 TTTT eYYY TTTTTT YYY 12213

~~~ )1( 2

221

2 e

Page 85: presentación series de tiempo

Series de tiempoPronóstico

Evaluación del pronóstico

hT

Tttt yyhEAM

1

~/1

2/1

~ hT

21/07/2010 Profesor: Andrés Ramírez Hassan 85

2/1

1

2)~(/1

hT

Tttt yyhRECM

hy

yyEAM

hT

Tt t

tt /~

1001

Page 86: presentación series de tiempo

Series de tiempoPronóstico

Evaluación del pronóstico

hT

t

hT

t

hT

Tttt

Theil

hyhy

hyy

U22

1

2

//~

/)~(

21/07/2010 Profesor: Andrés Ramírez Hassan 86

Tarea: realizar los ejercicios del capítulo 7 del texto de Uriel yPeiro.

Tt

tTt

t hyhy11

//

Page 87: presentación series de tiempo

Series de tiempoModelos Estacionales

Introducción

Los datos estacionales tienen oscilaciones periódicas, donde elperíodo es inferior a un año.

Modelos estacionarios puros estacionales

21/07/2010 Profesor: Andrés Ramírez Hassan 87

Modelos estacionarios puros estacionales

AR(1) estacional, es decir, AR(1)s será:

Donde la función de autocorrelación de un proceso estacionario,es decir , estará dada por:

tstt eYY 1

11

Page 88: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionarios puros estacionales

Otro

ssk

k

skk

,0

,...2,,

0,1

1

21/07/2010 Profesor: Andrés Ramírez Hassan 88

Tarea: Simular un proceso estacionario AR(1) Y AR(1)4 yencontrar las FACTs.

Page 89: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionarios puros estacionales (FACT)

Otro

ssk

k

eYYY

skskk

tststt

,0

,...2,,

0,1

221

221

21/07/2010 Profesor: Andrés Ramírez Hassan 89

Otro

sk

k

eeY

Otro

k

sttt

,0

,1

0,1

,0

21

1

1

Page 90: presentación series de tiempo

Series de tiempoModelos EstacionalesModelos estacionarios puros estacionales (FACT)

sk

sk

k

eeeY

k

ststtt

2,

,1

0,1

2

22

21

211

221

21/07/2010 Profesor: Andrés Ramírez Hassan 90

Otro

ssk

sk

k

eeYY

Otro

sk

sk

k

sttstt

,0

,...3,2,

,21

)()1(

0,1

,0

2,1

1

1121

1111

11

22

21

2

Page 91: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionarios puros estacionalesEl modelo estacional ARMA(P,Q) tendrá la siguiente estructura:

Modelos estacionales multiplicativos estacionarios

ts

ts eLYL )()(

21/07/2010 Profesor: Andrés Ramírez Hassan 91

El ARMA mixto o multiplicativo está dado por:

Veamos algunos ejemplos…

ts

ts eLLYLL )()()()(

Page 92: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionales multiplicativos estacionarios

El Cálculo de la FACT puede llegar a ser laborioso. Peña (1979) ha deducido una fórmula general que permite aproximar los coeficientes de autocorrelación de un proceso ARMA(p,q)xARMA(P,Q

21/07/2010 Profesor: Andrés Ramírez Hassan 92

ARMA(p,q)xARMA(P,Q)s.

Donde es el coeficiente de autocorrelación de orden k en un proceso ordinario ARMA(p,q), es el coeficiente de autocorrelación de orden k en un proceso estacional puro ARMA(P,Q) y es el coeficiente de autocorrelación de orden k en un proceso multiplicativo ARMA(p,q)xARMA(P,Q)s.

1

)(i

ksisikssik

Tk

ksk

Tk

Page 93: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionales multiplicativos estacionarios

La anterior expresión es exacta en caso de que la parte ordinaria sea un proceso de medias móviles de orden inferior al período estacional. Si el orden de la parte autorregresiva es bajo y si el período estacional es relativamente elevado se tendrá que

21/07/2010 Profesor: Andrés Ramírez Hassan 93

período estacional es relativamente elevado se tendrá que para k s.a) En los retardos bajos -1, 2, …, s/2- la única estructura que

aparece es la correspondiente a la parte ordinaria,

puesto que

0k

2/,...,2,1,0, skkTk

,...1,0,00 iy ksisik

Page 94: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionales multiplicativos estacionarios

b) En los retardos k = s, 2s,…, el único efecto importante es el correspondiente a la parte estacional. En efecto

ss

ssss

sss

sss

Ts 03202 ...)()(

21/07/2010 Profesor: Andrés Ramírez Hassan 94

c) En los retardos contiguos a múltiplos de s, se obtiene simétricamente la reproducción de la parte ordinaria tomando como referencia los valores de los retardos estacionales. Es decir,

A los coeficientes de autocorrelación contiguos a los múltiplos de sse les nomina coeficientes satélites.

sssssssss 03202 ...)()(

jsh

Tjsh

Tjsh

Page 95: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionales multiplicativos estacionarios

Veamos algunos ejemplos y realicemos algunas simulaciones…

Resumiendo se puede decir que cuando la parte ordinaria y la parte estacional son de medias móviles, los patrones de

21/07/2010 Profesor: Andrés Ramírez Hassan 95

parte estacional son de medias móviles, los patrones de comportamiento son nítidos; se complican un poco cuando se introduce un componente estacional autorregresivo, y es aun peor cuando la parte ordinaria tiene esta característica.

Page 96: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionales multiplicativos estacionarios

21/07/2010 Profesor: Andrés Ramírez Hassan 96

Page 97: presentación series de tiempo

Series de tiempoModelos Estacionales

Modelos estacionales no estacionarios

Cuando la secuencia estacional de coeficientes de correlación presenta un decaimiento suave es indicio de no estacionariedad en el componente estacional del modelo, luego se deben tomar diferencias estacionales.

ts

tDs

ds eLLYLL )()()()(

21/07/2010 Profesor: Andrés Ramírez Hassan 97

diferencias estacionales. Pruebas de raíces unitarias:•Presencia de efectos estacionales (paginas 228-233, Enders)•Quiebre estructural (paginas 243 – 251, Enders)•Diferenciación versus eliminando tendencia (paginas 176-180, Enders)•Problemas en las pruebas de raíces unitarias (paginas 251-256, Enders)

Page 98: presentación series de tiempo

Series de tiempoModelos Estacionales

Elaboración de un modelo ARIMA estacional•Identificación: El efecto de la no estacionariedad en el componente estacional complica el análisis.•Estimación: Los modelos son no lineales, se pierde más información y hay

21/07/2010 Profesor: Andrés Ramírez Hassan 98

Los modelos son no lineales, se pierde más información y hay diferencias significativas entre la estimación condicionada y no condicionada.•Validación:Verificar las hipótesis básicas del modelo.•Pronóstico:Seleccionar los mejores modelos y validarlos a través de pronóstico ex post.

Page 99: presentación series de tiempo

Series de tiempoAnálisis de intervención

Inició en los 1960’s debido a la proliferación de atentados terroristas. Un artículo clásico fue escrito por Enders, Sandler y Cauley (1990) donde se determinó el efecto de los detectores de metales en los aeropuertos sobre el número de secuestros de aviones.Básicamente hay dos tipos de variables en esta estrategia de

21/07/2010 Profesor: Andrés Ramírez Hassan 99

Básicamente hay dos tipos de variables en esta estrategia de modelación; las variables impulso y las variables escalón.

Variables impulso:

ttt

t

IeL

LY

tt

ttI

0

*

*

)(

)(

,0

,1

Page 100: presentación series de tiempo

Series de tiempoAnálisis de intervención

Variable escalón:

t

EeL

Y

tt

ttE

*

*

)(

,0

,1

21/07/2010 Profesor: Andrés Ramírez Hassan 100

Observe la relación entre las funciones de intervención establecidas:

ttt EeL

Y 0)(

tt ELI )1(

Page 101: presentación series de tiempo

Series de tiempoAnálisis de intervención

Obviamente, se pueden presentar casos mas complejo.

tb

tt

tb

tt

ELL

Le

L

LY

ILL

Le

L

LY

)(

)(

)(

)(

)(

)(

)(

)(

21/07/2010 Profesor: Andrés Ramírez Hassan 101

Donde

Además, b refleja el número de períodos de tiempo que tarda el proceso estocástico en verse afectado por el suceso considerado.

ttt LL )()(

rr

ss

LLL

LLL

...)(

...)(

10

10

Page 102: presentación series de tiempo

Series de tiempoAnálisis de intervención

Veamos algunos casos particulares:

Caso uno:

Caso dos: , situaciones extremas

ttt ILeL

LY )(

)(

)(10

L)(

01I

21/07/2010 Profesor: Andrés Ramírez Hassan 102

Caso dos: , situaciones extremas

Caso tres:

ttt IL

eL

LY

1

0

1)(

)(

ttt ELeL

LY )(

)(

)(10

1

0

1

1

tI

Page 103: presentación series de tiempo

Series de tiempoAnálisis de intervención

“Cuando los factores externos que debemos someter al análisis de intervención afectan considerablemente a la serie, la identificación es una tarea compleja. Así, la función de autocorrelación puede ser muy diferente con y sin intervención. En la práctica, si disponemos de suficientes observaciones

21/07/2010 Profesor: Andrés Ramírez Hassan 103

En la práctica, si disponemos de suficientes observaciones anteriores a la intervención, se suelen utilizar éstas para identificar el proceso” Uriel y Peiro (página, 184).

Page 104: presentación series de tiempo

Series de tiempoAnálisis de intervención

Pasos para el desarrollo de un modelo de intervención:

1) Use el tamaño de muestra superior (antes o después del fenómeno) para determinar el modelo ARIMA apropiado.

2) Estime varios modelos sobre todo el período muestral

21/07/2010 Profesor: Andrés Ramírez Hassan 104

2) Estime varios modelos sobre todo el período muestral incluyendo el efecto de la intervención (estime varias formas de intervención).

3) Realice las pruebas de diagnóstico de las ecuaciones estimadas.

4) Seleccione el modelo que minimiza los criterios de información.

Page 105: presentación series de tiempo

Series de tiempoModelos de transferencia

Estos son una generalización de los modelos de intervención,

Donde se asume exogeneidad de es conocida como la

ttt eLZLYL )()()(

)(LyZ

21/07/2010 Profesor: Andrés Ramírez Hassan 105

Donde se asume exogeneidad de es conocida como la función de transferencia.

Analicemos un ejemplo sencillo (Enders, página 279),

Donde son ruido blanco y no están correlacionados.

)(LyZt

tdtdtt eZYY 11

tt eyZ

Page 106: presentación series de tiempo

Series de tiempoModelos de transferencia

Así se tiene que:

ds

dsZYE

Zds

d

stt,

,0)(

21

21/07/2010 Profesor: Andrés Ramírez Hassan 106

En general,•Los coeficientes de correlación cruzados ( )son iguales a cero hasta que aparece el primer valor diferente de cero en la función de transferencia.•La forma de la parte de medias móviles no afecta los coeficientes de autocorrelación cruzados teóricos, al igual que el intercepto.

)(sYZ

Page 107: presentación series de tiempo

Series de tiempoModelos de transferencia

•Un pico se da en la Función de Autocorrelación Cruzada (FACC) cuando aparece un elemento diferente de cero en la función de transferencia.•Los picos decaen a la tasa que determinan las raíces características del polinomio en la parte autoregresiva.

21/07/2010 Profesor: Andrés Ramírez Hassan 107

Pero normalmente no somos tan afortunados que encontrar que es ruido blanco, luego se deben realizar las siguientes adaptaciones:

Entonces,

tZ

Ztt eLZL )()(

Page 108: presentación series de tiempo

Series de tiempoModelos de transferencia

Donde se tiene la misma función de transferencia entre y , y

tZtft

ttt

eLLLeLYL

eLLLZLLLYLLL

)()()()()(

)()()()()()()()()(

1

111

Y Z

21/07/2010 Profesor: Andrés Ramírez Hassan 108

Donde se tiene la misma función de transferencia entre y , y entre y .

Recapitulando, los pasos para estimar un modelo de transferencia son los siguientes:* Ajuste un modelo ARMA para y guarde los residuales de este modelo, los cuales se denominan las series filtradas.* Obtenga con los coeficientes estimados en el paso anterior

tY tZZteftY

tZtZ

ftY

Page 109: presentación series de tiempo

Series de tiempoModelos de transferencia

a partir de .* Halle FACC entre y , bajo la hipótesis nula que las correlaciones cruzadas son todas cero, la varianza muestral de los diferentes coeficientes de correlación cruzada converge asintóticamente a . Sea el coeficiente de correlación muestral entre y , bajo la hipótesis nula que

tYLL 1)()( ftY sZte ˆ

1)( sT )(srYZ

Y Z

21/07/2010 Profesor: Andrés Ramírez Hassan 109

correlación muestral entre y , bajo la hipótesis nula que todos los valores de son iguales a cero, la varianza del coeficiente de correlación muestral converge a .Valores estadísticamente significativos de las correlaciones cruzadas en el rezago s indican que una innovación en afectan a . La prueba de la significancia conjunta de las k correlaciones cruzadas se realiza a través de la prueba Box-Lunj.

tY stZ )(sYZ

)(srYZ1)( sT

tZstY

Page 110: presentación series de tiempo

Series de tiempoModelos de transferencia

* Examine el patrón de la FACC. Cualquier pico es señal de que el coeficiente asociado es diferente de cero y la forma de decaimiento es señal del polinomio asociado al componente autorregresivo. Estime todos los modelos de transferencia que considere plausibles. En esta instancia se debe tener una aproximación a

21/07/2010 Profesor: Andrés Ramírez Hassan 110

aproximación a

* Donde , luego examine los residuales de este modelo a través de la FACT y FACPT para determinar los componentes del polinomio en la parte autorregresiva.* Combine los tres pasos anteriores para obtener una estimación completa del modelo. Valide los supuestos y elija el mejor modelo.

ttt ZLYL )()(

tt eL)(

Page 111: presentación series de tiempo

Series de tiempoModelos de transferencia

Hay dos grandes limitantes en los modelos de transferencia; el primero es hallar el modelo parsimonioso y el segundo es el supuesto de exogeneidad. La última idea causó que Sims (1980) propusiera los modelos de Vectores Autorregresivos (VAR).

21/07/2010 Profesor: Andrés Ramírez Hassan 111

Page 112: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionada

Modelar la varianza en el contexto de series de tiempo implica mejorar la eficiencia de los parámetros estimados y la aproximación en los intervalos de predicción.Pese a que la volatilidad no es directamente observable (por la existencia de variaciones intra diarias), ésta tiene ciertas características que son comunes en las series de retornos

21/07/2010 Profesor: Andrés Ramírez Hassan 112

características que son comunes en las series de retornos financieras:•Existen fenómenos de agrupamientos•Evoluciona en el tiempo en forma continua•No diverge•Existe el fenómeno de apalancamiento (asimetría)

Page 113: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionada

Se debe tener presente la diferencia que hay entre no correlación e independencia. Aunque bajo el supuesto de normalidad, estos dos fenómenos son equivalentes.Los modelos de volatilidad pretenden modelar la dependencia del proceso estocástico en diferentes momentos del tiempo.

eY

21/07/2010 Profesor: Andrés Ramírez Hassan 113

Se asumirá para el tratamiento que la media del proceso está dada, pero se debe tener presente que el proceso de estimación es simultáneo.

12

12

1

111

ttttttt

q

iiti

p

iitittt

ttt

IeEIYEIYVar

ecIYE

eY

Page 114: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionada

Modelos ARCH, Engle (1982).La idea básica es que la perturbación estocástica es no correlacionada, pero dependiente.

....0,0,22 diie

em

ttt

21/07/2010 Profesor: Andrés Ramírez Hassan 114

En la práctica, la perturbación estocástica épsilon se asume normal estándar o t-Student.

Analicemos las propiedades estadísticas de ARCH(1)…

....0,0, 01

20

2 diie tii

itit

Page 115: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos ARCH, Engle (1982).

10)(

0)(

....0,0,

10

102

1102

eVar

eE

diie

e

t

t

ttt

ttt

21/07/2010 Profesor: Andrés Ramírez Hassan 115

La curtosis de e es mayor que la encontrada en una distribución normal, lo cual implica una mayor probabilidad de eventos atípicos.

)(

3/10,331

13

)(

)()(

101

)(

212

1

21

2

4

11

NormalidadBajo

eVar

eEeCurtosis

eVar

t

tt

t

Page 116: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos ARCH, Engle (1982).Limitaciones del modelo:•Simetría en las respuestas•Las restricciones sobre los parámetros son exigentes•No arroja luces para entender la fuente de variación•Sobre estima la volatilidad•Sobre parametrizado

21/07/2010 Profesor: Andrés Ramírez Hassan 116

•Sobre parametrizadoConstrucción del modelo:•Modelar la media a través de un ARIMA(p,d,q)•Analizar los residuales al cuadrado (Grafica, FACE, Pruebas formales)•Utilizar el FACP de los residuales al cuadrado para determinar el orden del modelo ARCH(m)

Page 117: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos ARCH, Engle (1982).

•Estimación bajo el supuesto de normalidad (MV)

Normalmente se desprecia la última parte de la anterior

),...,,(2

exp2

1),...,,( 21

12

2

2/1221

m

T

mt t

t

t

T eeefe

eeef

21/07/2010 Profesor: Andrés Ramírez Hassan 117

Normalmente se desprecia la última parte de la anterior expresión. Así,

Finalmente se maximiza la siguiente expresión y el cálculo es recursivo.

T

mt t

t

t

mTmm

eeeeeeef

12

2

2/122121 2exp

2

1),...,,,,...,,(

T

mt t

ttmTmm

eeeeeeel

12

22

2121 5.0ln5.0),...,,,,...,,(

Page 118: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos ARCH, Engle (1982).

Tarea: deducir la función de verosimilitud en el caso de asumir una distribución t-Student.

•Validar el modelo a través de análisis de los residuales estandarizados.

21/07/2010 Profesor: Andrés Ramírez Hassan 118

estandarizados.•El pronóstico se realiza de forma recursiva al igual que bajo los modelos ARIMA.

Page 119: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionada

Modelos GARCH, Bollerslev (1986).Este pretende solucionar el problema de sobre parametrización en los modelos ARCH.

.1)(,0,0,0,),(

222 e

esmMaxsm

ttt

21/07/2010 Profesor: Andrés Ramírez Hassan 119

En la práctica, la perturbación estocástica épsilon se asume normal estándar o t-Student.

Analicemos las propiedades estadísticas de GARCH(1,1)…

)1,0.(..

.1)(,0,0,0,1

01

2

1

20

2

dii

e

t

iiiji

jjtj

iitit

Page 120: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos GARCH, Bollerslev (1986).

0)(

).1,0(..

.1)(,1,0,0,

?

111102

112

1102

eE

dii

e

e

t

ttt

ttt

21/07/2010 Profesor: Andrés Ramírez Hassan 120

)(

02)(1,32)(1

)(13

)(

)()(

101

)(

0)(

21

2112

12

11

211

?

2

4

111

0?

NormalidadBajo

eVar

eEeCurtosis

eVar

eE

t

tt

t

t

Page 121: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos GARCH, Bollerslev (1982).Limitaciones del modelo:•Simetría en las respuestas•Las restricciones sobre los parámetros son exigentes•No arroja luces para entender la fuente de variación•Las colas son poco pesadas

21/07/2010 Profesor: Andrés Ramírez Hassan 121

Page 122: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos IGARCH.Si la representación AR del modelo GARCH presenta una raíz unitaria se debe acudir a los modelos GARCH Integrados. Específicamente se debe verificar esta expresión:

1

),(

1

20

2 )(s

jjtjt

smMax

iitiit ee

21/07/2010 Profesor: Andrés Ramírez Hassan 122

Luego un IGARCH(1,1) se puede expresar como:

Bajo esta especificación la varianza incondicional no está definida, lo cual puede obedecer a cambios de nivel en la volatilidad. Nuevamente efectos transitorios se convierten en permanentes.

22

11

ttt

ji

e

211

2110

2 )1( ttt e

Page 123: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos M-GARCH.

En algunas ocasiones la media del proceso analizado puede depender de su varianza, lo cual da origen a los modelos M-GARCH. Específicamente un M-GARCH(1,1) será:

2 ecY ttt

21/07/2010 Profesor: Andrés Ramírez Hassan 123

Donde c en la literatura financiera se conoce como prima por volatilidad.Observe que en este modelo se presenta correlación serial debido a la volatilidad.

).1,0(..

.1)(,1,0,0, 111102

112

1102

dii

e

e

ecY

t

ttt

ttt

ttt

Page 124: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos EGARCH, Nelson(1991).

Este se introduce con el objetivo de permitir asimetrías en las respuestas de la variable dependiente ante la llegada de nueva información (positiva o negativa). La formulación matemática es la siguiente:

21/07/2010 Profesor: Andrés Ramírez Hassan 124

Un modelo EGARCH(m, s) será:

0,

0,)(

ttt

ttt

ttttE

EEg

)(...1

...1)ln( 1

1

10

2

tmm

ss

t

ttt

gLL

LL

e

Page 125: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionadaModelos EGARCH, Nelson(1991).

Las raíces características de los polinomios en el operador de rezagos deben estar fuera del circulo unidad.

La especificación en forma logarítmica implica un relajamiento sobre las restricciones que se imponen en los modelos GARCH.

21/07/2010 Profesor: Andrés Ramírez Hassan 125

sobre las restricciones que se imponen en los modelos GARCH. Igualmente este modelo permite respuestas asimétricas.

Veamos un sencillo ejemplo, EGARCH(1,0):

La perturbación estocástica es i.i.d. normal estándar.

)()1()ln()1( 1012

1

tt

ttt

gL

e

Page 126: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionada

Modelos EGARCH, Nelson(1991).

Así,

0,)(

0,)()ln()1(

11*

11*

21

tt

tttL

21/07/2010 Profesor: Andrés Ramírez Hassan 126

Lo cual implica

2)1()1(

0,)(

0101*

11

t

tt

E

0,)(

0,)(

11*

11*

21

2 1

tt

tttt

Exp

Exp

Page 127: presentación series de tiempo

Series de tiempoModelos de heterocedasticidad condicionada

Modelos EGARCH, Nelson(1991).Tarea: Asuma que obtuvo los siguientes resultados de un modelo EGARCH(1,0)

856.01

)(496.5)ln( 12

t

t L

g

21/07/2010 Profesor: Andrés Ramírez Hassan 127

¿Cuál es la diferencia porcentual en la volatilidad del modelo cuando se presenta un shock estandarizado negativo con magnitud 2 y otro positivo de la misma magnitud?Pista

22647.00795.0)(

856.01

111

tttg

L

22 11 tt y

Page 128: presentación series de tiempo

Series de tiempoModelos Heterocedasticidad Condicional: Restricciones sobre los parámetros.

21/07/2010 Profesor: Andrés Ramírez Hassan 128