Elkin Castaño –Guillermo Pérez 1 MODELACIÓN DE SERIES DE TIEMPO UNIVARIADAS 1 • Informalmente hablando, una serie de tiempo consiste de una colección de observaciones ordenadas en el tiempo. • Un modelo univariado de series de tiempo relaciona el comportamiento de una variable económica con sus valores pasados y con valores pasados y presentes de un término de perturbación, es decir: x t =f(x t-1 , x t-2 , x t-3 ,…, u t , u t-1 ,..) • La ecuación anterior significa que se desea utilizar la inercia de la serie para explicar su comportamiento actual y así poder predecir su evolución futura. • Este tipo de análisis se denomina Análisis Univariado (o Univariante) porque utiliza como única información la propia historia de la serie, basándose en la hipótesis central de que las condiciones en el futuro serán análogas a las pasadas. • Los modelos univariados son especialmente útiles para realizar pronósticos a corto plazo, pero la serie debe ser relativamente grande. Para pronósticos a mediano y largo plazo se deben tener en cuenta otras variables que ayuden a explicar el comportamiento de la variable de interés. En estos casos se utilizan métodos de análisis de regresión dinámica o también de series de tiempo multivariadas. • A nivel teórico un modelo de series de tiempo está basado en el supuesto de que una variable económica ‘’X’’, es en cada instante del tiempo t, una variable aleatoria X t , para la cual sus posibles valores se pueden caracterizar por una función de densidad de probabilidad f(x t ). A la sucesión de estas variables aleatorias, X 1 , X 2 , X 3 , …, X n , observadas a intervalos regulares de tiempo (años, trimestres, meses, …) se le denomina proceso 1 Estas notas son una adaptación del texto de Johnston y DiNardo.
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Elkin Castaño –Guillermo Pérez 1
MODELACIÓN DE SERIES DE TIEMPO UNIVARIADAS1
• Informalmente hablando, una serie de tiempo consiste de una colección de
observaciones ordenadas en el tiempo.
• Un modelo univariado de series de tiempo relaciona el comportamiento de
una variable económica con sus valores pasados y con valores pasados y
presentes de un término de perturbación, es decir:
xt=f(xt-1, xt-2, xt-3,…, ut, ut-1,..)
• La ecuación anterior significa que se desea utilizar la inercia de la serie para
explicar su comportamiento actual y así poder predecir su evolución futura.
• Este tipo de análisis se denomina Análisis Univariado (o Univariante)
porque utiliza como única información la propia historia de la serie,
basándose en la hipótesis central de que las condiciones en el futuro serán
análogas a las pasadas.
• Los modelos univariados son especialmente útiles para realizar pronósticos
a corto plazo, pero la serie debe ser relativamente grande. Para
pronósticos a mediano y largo plazo se deben tener en cuenta otras
variables que ayuden a explicar el comportamiento de la variable de interés.
En estos casos se utilizan métodos de análisis de regresión dinámica o
también de series de tiempo multivariadas.
• A nivel teórico un modelo de series de tiempo está basado en el supuesto
de que una variable económica ‘’X’’, es en cada instante del tiempo t, una
variable aleatoria Xt, para la cual sus posibles valores se pueden
caracterizar por una función de densidad de probabilidad f(xt). A la sucesión
de estas variables aleatorias, X1, X2, X3, …, Xn, observadas a intervalos
regulares de tiempo (años, trimestres, meses, …) se le denomina proceso
1 Estas notas son una adaptación del texto de Johnston y DiNardo.
Elkin Castaño –Guillermo Pérez 2
estocástico. En adelante no se hará distinción entre el valor observado de
la serie x1, x2, x3, …, xn y el proceso estocástico X1, X2, X3, …, Xn que los
generó (sucesión de variables aleatorias).
• Es importante observar que hay una diferencia muy marcada en el manejo
de datos de corte transversal y los procesos estocásticos:
� En los procesos estocásticos existe un orden natural, dado por el
tiempo.
� En los datos de corte transversal es posible extraer diferentes muestras
y por lo tanto es relativamente clara la idea de que los resultados son
aleatorios.
� Cuando recopilamos un conjunto de datos de series de tiempo,
obtenemos un único resultado posible el cual es llamado la realización
del proceso estocástico. En la práctica, sólo podemos observar una
realización ya que no es posible retroceder en el tiempo para obtener
unos nuevos datos. No obstante, si hubieran sido distintas ciertas
condiciones en la historia, por lo general los resultados serían diferentes
para los valores de la serie, y es por esto que se piensa que X1, X2, X3,
…, Xn son variables aleatorias.
� En general, para un conjunto de datos de series de tiempo el concepto
de muestra aleatoria no es válido ya que, en general, X1, X2, X3, …, Xn
son dependientes.
• Como un punto de partida, los modelos de series de tiempo están basados
en el supuesto de que el proceso que generó la serie empezó hace mucho
tiempo y que continúa indefinidamente hacia el futuro. Además, algunos de
ellos asumen que la media y la varianza de la variable xt, t=1, 2, ..., n,
permanecen estables y que la covarianza entre xt y xt+k no depende del
tiempo sino de la separación en el tiempo entre ellas. Esta clase de proceso
estocástico es llamado estacionario en sentido débil.
Elkin Castaño –Guillermo Pérez 3
• Definición. Se dice que una serie de tiempo es estacionaria (o
estacionaria en sentido débil) si es estable en media, varianza y
covarianza, es decir, si para todo t:
a. E[xt]= µ
b. Var(xt) =σ2x
c. Cov(xt, xt+k) = cov(xt+m, xt+m+k) = γk t, k, m, valores enteros
cualquiera.
• El tipo de procesos estocásticos que se desarrollarán deben tener una
propiedad adicional: deben ser débilmente dependientes. De una manera
sencilla esta propiedad afirma que la corr(xt, xt+k) →0 cuando k → ∞ , k>0,
es decir, asintóticamente no se correlacionan. Intuitivamente esta propiedad
dice que a medida que las variables se distancian en el tiempo, la
correlación se hace cada vez más pequeña. Aún más, la convergencia de la
correlación a cero debe ser lo suficientemente rápida.
Ejemplos.
1. El proceso autorregresivo de orden 1, denotado por AR(1). Se dice que una serie
de tiempo xt sigue un proceso AR(1) si se puede escribir como
xt= m + αxt-1 + ut
donde el término de perturbación ut es un proceso de ruido blanco, es decir ut
proceso estocástico estacionario con E(ut)=0, var(ut)=2σ y Cov(ut, ut+k)=0.
m es una constante, α es otra constante tal que | | 1α < .
En este caso xt depende únicamente de su valor pasado inmediatamente anterior y del
valor aleatorio del término de perturbación, el cual generalmente es llamado
“innovación” o “ shock”.
2. Este modelo puede ser generalizado al modelo autorregresivo de orden p, AR(p), el
cual se define como
Elkin Castaño –Guillermo Pérez 4
xt = m + α1xt-1 + α2xt-2 + α3xt-3 +…+ αpxt-p + ut (1)
donde, como en el caso anterior, ut es proceso de ruido blanco, m es una constante y
los parámetros j
α son constantes que deben cumplir con ciertas restricciones que
veremos más adelante.
3. Es posible que ut no sea ruido blanco, y que por lo tanto responda a una estructura
más complicada. Generalmente ut se especifica como un proceso de medias móviles
MA(q), el cual se define como
ut = εt - β1εt-1 - β2εt-2 - ... - βqεt-q (2)
donde εt es ruido blanco.
4. Al combinar (1) y (2) se tiene un proceso ARMA(p,q), cuya especificación es
Las condiciones de estacionaridad requieren que las raíces de A(L)=0 se encuentren
fuera del círculo unidad ó de manera equivalente, que las raíces de la ecuación
característica se encuentran dentro del círculo unidad. Para que el proceso sea
invertible las raíces de B(L) deben cumplir la condición anterior. Bajo estas dos
condiciones un ARMA(p, q) se puede representar como un AR(∞) o un MA(∞), es decir
xt = A-1(L)B(L)εt es la representación MA(∞)
B-1(L)A(L)xt =εt es la representación AR(∞)
El proceso ARMA(1,1)
Un proceso ARMA(1,1) está dado por
xt=αxt-1+εt - βεt-1
(1-αL)xt =(1-βL)εt
Condiciones de estacionaridad: |α|<1 ó 1/|α|>1
Condiciones de invertibilidad : |β|<1 ó 1/|β|>1
Se puede probar que
γ0 = α-1
)β2α-(1σ2
22ε +β
|α| <1
Elkin Castaño –Guillermo Pérez 29
γ1 = α-1
)-β)(1-(ασ2
2ε αβ
γ2 = αγ1
γ3 = αγ2 = α2γ1
.
.
.
γK = αγk-1 = αk-1γ1
Luego el ACF de un ARMA(1,1) está dado por
ρ1 = 2
(α-β)(1-αβ)1-2αβ+β
ρk = αρk-1 = αk-1ρ1 k=2, 3, ..., k
Dado que un ARMA(1,1) es una combinación de un AR(1) y un MA(1) la ACF debe
exhibir ambos procesos. La contribución del MA(1) es fundamentalmente para ρ1
debido a que tiene memoria de un período. A partir de 2 la ACF declina
exponencialmente de acuerdo al proceso AR.
La PACF tampoco tiene corte pero si tiene convergencia a cero.
En general para un ARMA(p, q) se observa que la ACF tiene un comportamiento
irregular en las primeras q autocorrelaciones y después converge hacia cero de
acuerdo al proceso AR(p). La PACF tiene un comportamiento irregular en las primeras
p autocorrelaciones parciales y después convergencia hacia cero de acuerdo al
proceso MA(q).
Los comportamientos de la ACF y la PACF para los modelos ARMA se resumen en la
siguiente tabla
Elkin Castaño –Guillermo Pérez 30
ACF
PACF
AR(p) Convergencia a cero Corte después del rezago p.
MA(q) Corte después del rezago q Convergencia a cero
ARMA(p,q) Convergencia a cero Convergencia a cero
Identificación de los modelos de series de tiempo.
El estudio de los comportamientos de las ACF y PACF teóricas de los modelos AR,
MA y ARMA, es la base para la identificación del modelo generador de los datos de
una serie de tiempo observada.
Identificación de un proceso de ruido blanco. El caso más elemental de una serie
de tiempo estacionaria es el ruido blanco. Para este proceso se tiene que ρk=0 para
todo k, es decir, su ACF es nula.
Ahora, es de esperar que en la ACF muestral de un proceso que es ruido blanco, las
autocorrelaciones muestrales sean estadísticamente cero para todo k. La significancia
de las autocorrelaciones muestrales es usualmente verificada con base en la siguiente
propiedad: Si y1, y2, ...., yn provienen de una serie que es ruido blanco entonces rk ~a
N(0, 1/n). Para probar
HO: ρk=0
H1: ρk≠0
Defina el estadístico de prueba
tk=1/nrk = rn k ~
aN(0,1)
Para α=0.05 se tiene que
H0 se rechaza si rn k ≥2 o si rk≥ n/2
Ejemplo.
El correlograma muestral de una serie de tiempo está dado por
Elkin Castaño –Guillermo Pérez 31
Las bandas indican que los rk< n/2 . Se concluye que el proceso que generó los
datos de la serie parece ser un proceso de ruido blanco.
Identificación de un proceso MA(q). Si el proceso que generó la serie es un proceso
MA puro, teóricamente la ACF debe tener un corte desde el rezago q+1 y la PACF
decrece hacia cero. El correlograma muestral nos ayuda a identificar el posible orden q
del proceso ya que si el MA fuera de orden q, las autocorrelaciones de orden k con
k>q no serían significativamente distintas de cero.
Para un proceso MA(q), se ha probado que para k>q se tiene que
rk ~a
N(0, var(rk))
donde
var(rk)
q2j
j=11+2 r
n
∑≈ k>q
Es bueno observar que, es usual aproximar a var(rk) por 1/n.
Ejemplo.
El correlograma muestral de una serie de tiempo está dado por
Elkin Castaño –Guillermo Pérez 32
Se observa que la PACF decrece hacia cero y que la PACF se anula estadísticamente
a partir de k=2. Por tanto el proceso que generó los datos parece ser un MA(1).
Identificación de un modelo AR(p). Si el proceso es un AR(p), teóricamente su ACF
decrece hacia cero y su PACF tiene un corte a partir del rezago p+1. Una herramienta
gráfica que puede facilitar la identificación del orden p de un AR puro es la PACF
muestral.
De nuevo es importante desarrollar las pruebas de hipótesis
HO: αkk = 0
H1: αkk ≠ 0
Para un proceso AR(p) se prueba que, para k>p, α kk ~a
N(0, 1/n).
Por lo tanto si se piensa que la muestra proviene de un AR, Ho se rechazaría a un
nivel de significación del 5%, si αn kk ≥2 o si α kk ≥ n/2 . Si αkk no es
significativo más allá del rezago p entonces se puede pensar que la serie proviene de
un AR(p).
Ejemplo.
El correlograma muestral de una serie de tiempo está dado por
Elkin Castaño –Guillermo Pérez 33
Se observa que la ACF decrece hacia cero y que la PACF se anula estadísticamente
desde el rezago k=2. . Por tanto el proceso que generó los datos parece ser un AR(1).
Identificación de un modelo ARMA(p,q).
Si el proceso es un ARMA(p,q), teóricamente tanto su ACF como su PACF decrecen
hacia cero. Sin embargo, en general no es fácil seleccionar los órdenes p y q con base
en el ACF y el PACF muestral debido a que las propiedades anteriores ya no son
válidas. Una recomendación para esta situación es estimar un conjunto de modelos
(modelos ARMA con bajos órdenes p y q), de estos, seleccionar los que se pueden
validar (con base en pruebas de diagnóstico) y por último, con base en criterios de
selección de modelos escoger el mejor.
Ejemplo.
El correlograma muestral de una serie de tiempo está dado por
Elkin Castaño –Guillermo Pérez 34
Se observa que tanto la ACF como la PACF parecen converger hacia cero.
Esto conduce a pensar que el modelo generador de los datos es un ARMA. Sin
embargo, sus órdenes no pueden ser derivados de la ACF y PACF. En la
práctica se proponen diferentes órdenes p y q (generalmente bajos) y se
estiman los modelos. Se elige el mejor modelo (validado) con base en criterios
de información.
EJERCICIOS DE SIMULACIÓN Series estacionarias Autorregresivas Simulación de un proceso AR(1) Macro en EVIEWS: 'creación de un archivo de trabajo workfile u 1 2050 'asignación de la semilla para la generación de los números aleatorios normales 'rndseed 8931 'simulación de un AR(1) estacionario con m=5, alfa=0.7 '----------------------------------------------------------------------------------------------------------- 'asignación de los parámetros del proceso 'para simular diferentes AR(1) basta cambiar los siguientes valores. 'observe que un proceso de ruido blanco se obtiene cuando alfa=0. scalar m=5 scalar alfa=0.7 scalar desv=2 'generación del término de error normal(0,4) genr e= desv*nrnd 'generación inicial con ceros de la serie que va a contener los datos del AR(1)
Elkin Castaño –Guillermo Pérez 35
genr y1=0 'generación del valor inicial: se asigna la media del proceso mu=m/(1-alfa) smpl @first @first y1=m/(1-alfa) 'generación de los valorres restantes smpl @first+1 @last genr y1=m+alfa*y1(-1)+e smpl @all 'para observar el efecto del tamaño muestral sobre la ACF y PACF muestrales cambie el valor de n1. 'también se eliminan los primeros 50 primeros valores para evitar la influencia de los valores inicilaes en la simulación scalar n1=1750 smpl @first+50+n1 @last 'gráfica de la serie simulada line y1 'Cálculo de los estadísticos descrptivos freeze y1.stats 'Cálculo de las ACF y PACF muestrales y1.correl(15) Resultados:
8
12
16
20
24
28
75 00 25 50 75 00 25 50 75 00
Y1
Sample: 1751 2000 Y1
Mean 16.57699 Median 16.41018 Maximum 24.81734 Minimum 10.95989 Std. Dev. 2.555810 Skewness 0.139166 Kurtosis 2.702382 Jarque-Bera 1.729642
Elkin Castaño –Guillermo Pérez 36
Probability 0.421127 Sum 4144.247 Sum Sq. Dev. 1626.509 Observations 250
Simulación de un AR(2) Macro en EViews 'creación de un archivo de trabajo workfile u 1 2050 'asignación de la semilla para la generación de los números aleatorios normales 'rndseed 8931 'simulación de un AR(2) estacionario con m=5, alfa1=0.5, alfa2=0.3 '----------------------------------------------------------------------------------------------------------- 'asignación de los parámetros del proceso 'para simular diferentes AR(2) basta cambiar los siguientes valores. scalar m=5 scalar alfa1=0.5 scalar alfa2=0.3 scalar desv=2 'generación del término de error normal(0,4) genr e= desv*nrnd 'generación inicial con ceros de la serie que va a contener los datos del AR(1) genr y2=0 'generación del valor inicial: se asigna la media del proceso mu=m/(1-alfa) smpl @first @first+1 y2=m/(1-alfa1-alfa2) 'generación de los valorres restantes smpl @first+2 @last genr y2=m+alfa1*y2(-1)+alfa2*y2(-2)+e smpl @all 'para observar el efecto del tamaño muestral sobre la ACF y PACF muestrales cambie el valor de n1.
Elkin Castaño –Guillermo Pérez 37
'también se eliminan los primeros 50 primeros valores para evitar la influencia de los valores iniciales en la simulación scalar n1=1750 smpl @first+50+n1 @last 'gráfica de la serie simulada line y2 'Cálculo de los estadísticos descriptivos freeze y2.stats 'Cálculo de las ACF y PACF muestrales y2.correl(15) Resultados:
16
18
20
22
24
26
28
30
32
34
75 00 25 50 75 00 25 50 75 00
Y2
Sample: 1751 2000 Y2
Mean 24.90203 Median 24.51606 Maximum 34.24438 Minimum 16.77101 Std. Dev. 3.295266 Skewness 0.184754 Kurtosis 2.670591 Jarque-Bera 2.552575 Probability 0.279071 Sum 6225.507 Sum Sq. Dev. 2703.836 Observations 250
Elkin Castaño –Guillermo Pérez 38
Simulación de procesos MA(q) invertibles Simulación de un proceso MA(1) Macro en EViews 'creación de un archivo de trabajo workfile u 1 2050 'asignación de la semilla para la generación de los números aleatorios normales 'rndseed 8931 'simulación de un MA(1) estacionario con m=5, beta=0.7 '----------------------------------------------------------------------------------------------------------- 'asignación de los parámetros del proceso 'para simular diferentes MA(1) basta cambiar los siguientes valores. 'observe que un proceso de ruido blanco se obtiene cuando beta=0. scalar m=5 scalar beta=-0.7 scalar desv=2 'generación del término de error normal(0,desv^2) genr e= desv*nrnd 'generación de los valores de la serie. El primer valor no está definido genr y1=m+e+beta*e(-1) 'para observar el efecto del tamaño muestral sobre la ACF y PACF muestrales cambie el valor de n1. 'también se eliminan los primeros 50 primeros valores para evitar la influencia de los valores iniciales en la simulación scalar n1=1750 smpl @first+50+n1 @last 'gráfica de la serie simulada line y1 'Cálculo de los estadísticos descriptivos freeze y1.stats 'Cálculo de las ACF y PACF muestrales y1.correl(15)
Elkin Castaño –Guillermo Pérez 39
Resultados:
-2
0
2
4
6
8
10
12
1800 1850 1900 1950 2000
Y1
Sample: 1751 2000 Y1
Mean 5.051787 Median 5.242392 Maximum 11.03352 Minimum -0.898052 Std. Dev. 2.467722 Skewness -0.043227 Kurtosis 2.276032 Jarque-Bera 5.537538 Probability 0.062739 Sum 1262.947 Sum Sq. Dev. 1516.324 Observations 250
Elkin Castaño –Guillermo Pérez 40
Simulación de un proceso MA(2) Macro en Eviews 'creación de un archivo de trabajo workfile u 1 2050 'asignación de la semilla para la generación de los números aleatorios normales 'rndseed 8931 'simulación de un MA(2) estacionario con m=5, beta1=-0.5, beta2=-.3 '----------------------------------------------------------------------------------------------------------- 'asignación de los parámetros del proceso 'para simular diferentes AR(2) basta cambiar los siguientes valores. scalar m=5 scalar beta1=-0.5 scalar beta2=-0.3 scalar desv=2 'generación del término de error normal(0,4) genr e= desv*nrnd 'generación de los valores de la serie. Los dos primeros valores no están definidos genr y2=m+e+beta1*e(-1)+beta2*e(-2) 'para observar el efecto del tamaño muestral sobre la ACF y PACF muestrales cambie el valor de n1. 'también se eliminan los primeros 50 primeros valores para evitar la influencia de los valores iniciales en la simulación scalar n1=1750 smpl @first+50+n1 @last 'gráfica de la serie simulada line y2 'Cálculo de los estadísticos descriptivos freeze y2.stats 'Cálculo de las ACF y PACF muestrales y2.correl(15)
Elkin Castaño –Guillermo Pérez 41
Resultados:
-4
-2
0
2
4
6
8
10
12
1800 1850 1900 1950 2000
Y2
Sample: 1751 2000 Y2
Mean 4.964349 Median 5.028957 Maximum 11.55599 Minimum -2.198414 Std. Dev. 2.486284 Skewness -0.017241 Kurtosis 2.995421 Jarque-Bera 0.012604 Probability 0.993718 Sum 1241.087 Sum Sq. Dev. 1539.221 Observations 250
Elkin Castaño –Guillermo Pérez 42
Simulación de procesos ARMA(p,q) estacionarios e invertibles Simulación de un proceso ARMA(1,1) Macro en EViews 'creación de un archivo de trabajo workfile u 1 2050 'asignación de la semilla para la generación de los números aleatorios normales 'rndseed 8931 'simulación de un ARMA(1,1) estacionario con m=5, alfa=0.8 beta=-0.7 '----------------------------------------------------------------------------------------------------------- 'asignación de los parámetros del proceso 'para simular diferentes ARMA(1,1) basta cambiar los siguientes valores. 'observe que un proceso de ruido blanco se obtiene cuando alfa=0 y beta=0. scalar m=5 scalar alfa=0.7 scalar beta=-0.5 scalar desv=2 'generación del término de error normal(0,4) genr e= desv*nrnd 'generación inicial con ceros de la serie que va a contener los datos del ARMA(1,1) genr y1=0 'generación del valor inicial: se asigna la media del proceso mu=m/(1-alfa) smpl @first @first y1=m/(1-alfa) 'generación de los valorres restantes smpl @first+1 @last genr y1=m+alfa*y1(-1)+e+beta*e(-1) smpl @all 'para observar el efecto del tamaño muestral sobre la ACF y PACF muestrales cambie el valor de n1. 'también se eliminan los primeros 50 primeros valores para evitar la influencia de los valores iniciales en la simulación scalar n1=1750 smpl @first+50+n1 @last
Elkin Castaño –Guillermo Pérez 43
'gráfica de la serie simulada line y1 'Cálculo de los estadísticos descriptivos freeze y1.stats 'Cálculo de las ACF y PACF muestrales y1.correl(15) Resultados:
8
10
12
14
16
18
20
22
24
1850 1900 1950 2000 2050
Y1
Sample: 1801 2050 Y1
Mean 16.75472 Median 16.61422 Maximum 22.22004 Minimum 9.971558 Std. Dev. 2.183833 Skewness -0.064173 Kurtosis 3.080570 Jarque-Bera 0.239208 Probability 0.887272 Sum 4188.679 Sum Sq. Dev. 1187.512 Observations 250
Elkin Castaño –Guillermo Pérez 44
PRUEBAS DE ESTACIONARIDAD
Antes de proceder a calcular la media, la varianza y las funciones de autocovarianzas
y autocorrelación se debe verificar si la serie es estacionaria.
Dada una serie de tiempo y1, y2, ..., yn , tradicionalmente, existen dos métodos para
detectar si una serie es estacionaria o no:
• Un juicio subjetivo basado en el análisis gráfico de la serie y de su correlograma
muestral (ACF muestral).
• El empleo de pruebas estadísticas formales sobre la existencia de raíces unitarias
en la serie.
Análisis subjetivo.
Análisis de la gráfica de la serie.
Este análisis muestra como evoluciona la serie en el tiempo. A un nivel intuitivo
podemos pensar que la serie es estacionaria si está oscilando alrededor de su ‘’valor
medio’’ y si se observa estabilidad en la varianza. Es bueno tener en cuenta que esta
inspección visual puede no ser muy clara en muchos casos.
Elkin Castaño –Guillermo Pérez 45
Gráfica de un proceso estacionario
-20
-10
0
10
20
30
40
50
1850 1900 1950 2000
El uso del correlograma muestral.
Una herramienta gráfica más poderosa es el correlograma muestral. Teóricamente,
para una serie estacionaria la función de autocorrelación converge rápidamente hacia
cero. Como los rk son los estimadores de ρk, si una serie es estacionaria, el
correlograma muestral también debe converger rápidamente a cero.
Para ilustrar el uso del correlograma se construyeron 5 series artificiales (simuladas)
definidas a continuación.
Las series fueron generadas siguiendo los parámetros indicados. Y1 es un proceso
AR(1), Y2 es un proceso no estacionario llamado paseo aleatorio con deriva (observe
que el polinomio AR tiene una raíz unitaria, es decir, L=1), Y3 es un proceso no
estacionario AR(1) llamado explosivo y Y4 es la suma de una tendencia lineal en el
tiempo y un proceso AR(1) estacionario. Para cada una de estos modelos se
generaron series de 200 observaciones de las cuales se descartaron las primeras 100.
La serie Y5 es otro ejemplo de paseo aleatorio con deriva con un conjunto diferente
de parámetros.
Elkin Castaño –Guillermo Pérez 46
El correlograma para Y1 se presenta en la siguiente tabla.
Este correlograma muestra el típico comportamiento de un AR(1) estacionario, donde
la ACF decae rápidamente hacia cero y la PACF exhibe y la primera correlación
parcial es la única que es significativamente diferente de cero.
Para la serie no estacionaria Y2, ACF y PACF muestrales pueden ser calculadas
aunque sus contrapartes poblacionales (teóricas) no existen. La siguiente tabla
presenta los resultados para la serie Y2.
Elkin Castaño –Guillermo Pérez 47
Se observa que la ACF muestral decrece pero no tan rápido como en el AR(1)
estacionario. Sin embargo, el patrón de comportamiento no es muy diferente del de
Y1, debido a que su parámetro está muy cerca de 1. Esto indica que mientras más
cerca esté α a 1 por la izquierda (o, equivalentemente, más cerca de uno se encuentre
el módulo de la raíz del polinomio AR) más difícil es distinguir entre un AR(1)
estacionario y un proceso no estacionario de paseo aleatorio.
El correlograma muestral para la serie explosiva se presenta en la siguiente gráfica y
se observa que es muy similar al de Y2. Sin embargo, el correlograma parcial
muestral es distinto en el sentido de que todas las autocorrelaciones parciales son
cero, excepto la primera.
Elkin Castaño –Guillermo Pérez 48
Recuerde que la primera diferencia de una serie es 11t t t tY ( L )Y Y Y −∆ = − = − . Observe
que para Y2 su primera diferencia 2tY∆ =1+ tε , es decir es un proceso de ruido blanco,
el cual es un proceso estacionario. Si se denota la primera diferencia como DY2, la
siguiente gráfica presenta su correlograma muestral, el cual corresponde al de un
ruido blanco.
Elkin Castaño –Guillermo Pérez 49
Sin embargo, si se hace la primera diferencia de la serie explosiva Y3, no se obtiene
un proceso estacionario.
La siguiente gráfica muestra que el correlograma muestral de la serie diferenciada es
similar al de la serie sin diferenciar. Esta es la distinción que hay entre la serie no
estacionaria Y2 y la serie explosiva Y3: una serie no estacionaria como Y2 puede ser
transformada a estacionaria por medio de diferenciación, mientras que una serie
explosiva no.
SERIES INTEGRADAS Una serie de tiempo no estacionaria que para ser transformada en una estacionaria
se debe diferenciar, se le denomina serie integrada (o serie no estacionaria
homogénea).
El orden de integración es el mínimo número de veces que la serie debe ser
diferenciada para que alcance la estacionaridad. En este caso se dice que la serie es
un proceso autorregresivo y de medias móviles integrado. Este proceso se denota por
ARIMA(p, d, q), donde d es el orden de integración. Su especificación es
Elkin Castaño –Guillermo Pérez 50
A(L)(1-L)dyt =m+B(L)εt
Si la serie es estacionaria entonces d=0 y se dice que la serie es de orden de
integración 0 y se denota como I(0). Si la serie yt no es estacionaria pero si lo es ∆yt,
entonces d=1, entonces se dice que la serie es de orden de integración 1 y se denota
como I(1). Ahora una serie yt no estacionaria será I(2) si la serie ∆yt sigue siendo no
estacionaria, pero la serie ∆2yt =yt-2yt-1+yt-2 es estacionaria.
En el trabajo con datos económicos, generalmente las series son máximo de orden 2 y
generalmente son de orden 1. Es bueno observar que si una serie es estacionaria su
diferenciación (sobrediferenciación), sigue siendo estacionaria. Por ejemplo, un
proceso de ruido blanco es el ejemplo más simple de una serie estacionaria. Su
primera diferencia sigue siendo estacionaria y corresponde a un modelo MA(1) no
invertible. En efecto, si yt = m + εt, entonces ∆yt = εt - εt-1, es decir, el polinomio MA
contiene una raíz unitaria cuyo módulo (valor absoluto) es 1.
SERIES ESTACIONARIAS EN TENDENCIA (TS) y SERIES ESTACIONARIAS EN
DIFERENCIA (DS)
La serie Y4 es un ejemplo simple de una serie estacionaria en tendencia. Esta serie
puede ser escrita como:
yt = δ0 + δ1t + ut, ut = αut-1 + εt
o
yt = [δ0(1-α) + αδ1] + δ1(1-α)t + αyt-1 + εt
donde εt es un proceso de ruido blanco y α<1. En la siguiente gráfica se observa
que la serie Y4 fluctúa alrededor de la recta de tendencia y además la amplitud de las
fluctuaciones no aumentan ni tampoco disminuyen. Por esta razón se dice que la serie
es estacionaria en tendencia (TS). El modelo de tendencia en este caso es 10+0.5t y
aparece denotado en la gráfica como Y4HAT. Los incrementos constantes producen
una serie no estacionaria. Sin embargo, su primera diferencia es estacionaria y es de
la forma
∆ yt = δ1+ ∆ ut
donde ∆ ut es estacionaria, puesto que ut es estacionaria.
Elkin Castaño –Guillermo Pérez 51
Observe que ut es un ARMA(1,0) y que (1-αL) ∆ ut= (1-L)εt es un ARMA(1,1) no
invertible, puesto que contiene una raíz unitaria en su polinomio MA. Debido a este
problema, la diferenciación no es la forma correcta de estacionarizar este tipo de
proceso. Observe que la serie puede ser estacionarizada restando la tendencia a la
serie original puesto que
zt = yt - δ0 - δ1t = ut, ut = αut-1+εt
genera un proceso que es estacionario e invertible.
Si α=1, se tiene la serie Y5, la cual se puede escribir como
yt = δ0 + δ1t + ut, ut = ut-1 + εt
o
yt = δ1+ yt-1+ εt
En este caso las desviaciones de la tendencia, son no estacionarias debido a que ut es
un paseo aleatorio (existe una raíz unitaria en el polinomio autorregresivo). Se observa
que las desviaciones tienden a alejarse de la línea de tendencia. Para este caso la
primera diferencia toma la forma
∆yt=δ1+εt
Elkin Castaño –Guillermo Pérez 52
la cual es una serie estacionaria. En este caso se dice que la variable yt es
estacionaria en diferencias (DS).
Es importante analizar cuál es la verdadera diferencia entre los modelos TS y DS, los
cuales aparentemente son muy similares, pero que de hecho hay una importante
distinción. Si denominamos a ε como la innovación o choque (shock) aleatorio, se
puede probar que en el caso de una serie TS la innovación tiene un efecto transitorio
sobre yt, es decir, su efecto va disminuyendo con el tiempo, mientras que si la serie es
DS su efecto es permanente, es decir, nunca desaparece (es persistente).
Considere el caso de una serie TS. Entonces ut mide la desviación de la serie de la
línea de tendencia en el período t. Examinemos el efecto de una innovación εt sobre
las desviaciones actuales y futuras de la serie. Del modelo ut = αut-1 + εt, restando a
donde las p-1 raíces de A*(L) se encuentran fuera del circulo unidad. Entonces el
modelo se puede escribir como
A*(L)( ∆yt - δ1) = B(L)εt
así que la primera diferencia de la serie puede ser modelada por un proceso
estacionario ARMA(p-1, q).
Las siguientes tablas contienen los correlogramas para las primeras diferencias DY4 y
DY5.
Elkin Castaño –Guillermo Pérez 55
Los correlogramas anteriores proporcionan un fuerte soporte de que las series son
estacionarias.
Sin embargo, anteriormente vimos que DY4 es un proceso ARMA(1,1) y a primera
vista parece sorprendente que ni las autocorrelaciones de bajo orden son
significativas. Esto se debe al siguiente hecho: antes se probó que
1 2
1
1 2
( - )( - )
-
α β αβραβ β
=+
Cuando α y β están numéricamente cercanos, la primera y las siguientes
autocorrelaciones estarán cerca a cero. Este es el caso de DY4 donde α =0.9 y β =1.
Esto significa que si en un proceso ARMA(1,1) α ≈ β ( o, equivalentemente, las
raíces de sus correspondientes polinomios A(L) y B(L) son muy similares), la
identificación del proceso a través de la ACF y PACF no es posible. Este resultado se
puede extender a modelos ARMA(p, q).
Al analizar los correlogramas muestrales de DY4 y DY5 observamos que no muestran
diferencias en el comportamiento entre un proceso TS y un proceso DS.
Elkin Castaño –Guillermo Pérez 56
Para tratar de solucionar este problema se han propuesto las pruebas de raíces
unitarias. Estas pruebas, sin embargo, también tienen baja potencia para distinguir
estos procesos.
PRUEBAS DE RAÍCES UNITARIAS
Considere el modelo AR(1) con tendencia lineal
yt=δ0+δ1t+ut, ut=αut-1+εt
o, equivalentemente
yt=[δ0(1-α)+αδ1]+ δ1(1-α)t+αyt-1+εt
Para tratar de diferenciar entre una serie TS y una DS se desarrolla la prueba de la
hipótesis
HO: α=1
H1: α<1
Si no se rechaza HO entonces el proceso tiene raíz unitaria y por lo tanto es no
estacionario. En este caso se tendría un proceso DS. Bajo H1 el proceso sería
estacionario en tendencia (TS).
Debido a que bajo HO el modelo es no estacionario, sus parámetros no se pueden
estimar directamente, la prueba propone transformar el modelo original
yt = [δ0(1 - α) + αδ1] + δ1(1 - α)t + αyt-1 + εt
restando yt-1 a ambos lados de la igualdad y agrupando términos, como:
∆yt = [δ0(1 - α) + αδ1] + δ1(1 - α)t + γyt-1 + εt
donde γ = α-1.
En términos de este nuevo modelo, las hipótesis anteriores serán de forma
HO: γ = 0 (La serie no es estacionaria)
Elkin Castaño –Guillermo Pérez 57
H1: γ < 0 (La serie es estacionaria)
Si γ = 0, lo que equivale que a que α = 1, hay una raíz unitaria y la serie no es
estacionaria. Si γ < 0, lo que equivale que a que α<1, la serie es estacionaria. Se
observa que bajo HO este modelo es estacionario para ∆yt y sus parámetros pueden
ser estimados usando mínimos cuadrados.
El procedimiento para realizar la prueba es el siguiente.
Se ajusta por OLS el modelo ∆yt = 0β + 1β t + γyt-1 + εt.
Observe que 0β = δ0(1 - α) + αδ1 y 1β = δ1(1 - α) .
Se define el estadístico de prueba como
τt =)ˆSE(
ˆ
γγ
donde )ˆSE(γ es el error estándar del estimador γ .
Este estadístico no sigue la distribución ‘’t’’, ni es asintóticamente N(0,1), ya que bajo
la hipótesis nula el proceso yt no es estacionario, puesto que el modelo se reduce a
∆yt = δ1 + εt
el cual es un paseo aleatorio con deriva. En estos casos se dice que la distribución del
estadístico τt no es estándar.
El problema de la inferencia fue resuelto por Dickey y Fuller en 1979, quienes
obtuvieron la distribución límite del estadístico anterior, para varios casos importantes.
Las distribuciones fueron obtenidas empíricamente por Dickey. Estas pruebas son
conocidas como las pruebas de Dickey-Fuller.
Posteriormente Mackinnon (1991) revisa y recalcula los números críticos de las tablas
originales de Dickey–Fuller para cualquier tamaño muestral y diferentes
especificaciones de las regresiones.
La prueba anterior intenta discriminar entre los modelos que generan las series Y4 y
Y5. Es importante también discriminar entre modelos que generan las series Y1 y Y2,
Elkin Castaño –Guillermo Pérez 58
88888donde no hay tendencia lineal. En este caso se tiene que δ1=0. El procedimiento
puede ser derivado como antes haciendo δ1=0. Esto proporciona la ecuación
yt=δ0(1-α)+αyt-1+εt
y el modelo equivalente es
∆yt=δ0(1-α)+γyt-1+εt
Bajo la hipótesis nula, esta ecuación se reduce a
∆yt=εt
de manera que la serie yt es no estacionaria y corresponde a un paseo aleatorio sin
deriva.
Finalmente, también es posible que δ0=0. En este caso se tendría que
yt=αyt-1+εt
y el modelo equivalente es
∆yt=γyt-1+εt
Bajo la hipótesis nula, el modelo anterior también se reduce a
∆yt=εt
Como antes, para los dos casos anteriores el contraste de interés será:
HO: γ=0
H1: γ<0
Para estas dos situaciones es usual hablar de los estadísticos τµ y τ respectivamente.
De nuevo la inferencia clásica no es válida. Pero Dickey–Fuller construyen las tablas
para poder realizar esta prueba de hipótesis. Es bueno observar que cada una de las
tres situaciones, dependiendo también del tamaño de la muestra, tienen sus propios
valores críticos. Un software como el EViews entrega los respectivos valores críticos.
Elkin Castaño –Guillermo Pérez 59
La prueba aumentada de Dickey-Fuller. Hasta aquí, toda la metodología
desarrollada asume que el proceso yt es un AR(1). Si lo anterior no es cierto se
presentaría autocorrelación en el término de perturbación εt, lo cual invalida las
anteriores pruebas. Este problema se puede corregir, incluyendo una estructura de
rezagos en los modelos (1’), (2’) y (3’) (ver texto – página 226).Para el modelo (2’), se
estimaría por OLS a
∆yt=δ+γyt-1+∑−
=−
1p
1iiti y∆β +εt
Para esta situación se habla de la prueba ampliada (o aumentada) de Dickey–Fuller
(ADF). Un problema práctico de esta prueba es que el valor de p (el orden de la parte
autorregresiva en el modelo) es desconocido.
Existen varios métodos para elegir la longitud óptima. El más utilizado es el método
del Hall (1994), que es secuencial y propone iniciar la búsqueda con una longitud
relativamente grande de rezagos p-1 para luego ir disminuyendo el número de
rezagos hasta encontrar un estadístico significativo (se estima el modelo con p-1
rezagos y se analiza si el parámetro asociado al rezago p-1 es estadísticamente
significativo, si no lo es se estima el modelo con p-2 rezagos, y así sucesivamente).
Otros métodos están basados en los criterios de información de Akaike, Schwarz y
Hannan-Quinn (ver su definición más adelante), en los que se busca el número de
rezagos que minimice el valor de los criterios. Después de seleccionado el número de
rezagos, se debe analizar si efectivamente los residuales son ruido blanco: gráfico de
residuales, correlograma, prueba de Breusch - Godfrey, prueba Q de Box–Ljung.
En la literatura se han propuesto otras pruebas que tratan de mejorar el desempeño de
la prueba ADF. Estas pruebas tratan de mejorar la prueba ADF cuando se presentan
problemas de autocorrelación o de heterocedasticidad en el término de perturbación.
Es importante tener en cuenta que las pruebas de raíces unitarias tales como la
prueba ADF y otras propuestas en la literatura, pueden ser afectadas por cambios
estructurales en las series de tiempo. Por ejemplo, Perron(1989,1990) mostró que la
aplicación de la prueba ADF a series estacionarias en torno a un nivel o a una
tendencia que sufren cambio estructural, podría llevar a concluir erróneamente, que
Elkin Castaño –Guillermo Pérez 60
las series presentaban raíz unitaria. Perron desarrolló una prueba para analizar esta
situación (ver Enders, página 200).
Ejemplos numéricos.
Ejemplo 1. La serie Y1 anterior es un proceso AR(1) estacionario con parámetro 0.95.
La aplicación de la prueba de Dickey-Fuller para el modelo con constante, proporciona
los siguientes resultados.
Los resultados muestran que la existencia de una raíz unitaria no puede ser rechazada
a un nivel significancia de 0.10. Este resultado es sorprendente puesto que el proceso
verdadero es estacionario. Sin embargo, su parámetro está muy cerca de 1. Si se
aumenta el tamaño de la muestra a 200 observaciones, el estadístico DF es -3.42 y el
valor crítico para un nivel de significancia del 1% es de -3.46, lo cual conduce a
rechazar la hipótesis de raíz unitaria para niveles de significación próximos al 1%.
Ejemplo 2. Para la serie estacionaria en tendencia Y4, los resultados de la prueba se
muestran en la siguiente tabla. Para la realización de la prueba se empleó el modelo
con tendencia lineal.
El valor del estadístico DF es -2.94, el cual falla en rechazar la hipótesis de raíz
unitaria a un nivel de significancia del 10%. De nuevo, este resultado se debe a que el
valor del coeficiente AR es de 0.9. Esto ilustra la baja potencia que tiene la prueba en
Elkin Castaño –Guillermo Pérez 61
estos casos. La falla en rechazar Ho conduce a una aceptación cuidadosa y
provisional de la existencia de una raíz unitaria.
Estabilización de la varianza de una serie de tiempo
• Transformaciones que estabilizan la varianza. No todas las series de tiempo
pueden ser transformadas a estacionaridad por medio de la diferenciación.
Muchas series de tiempo son estacionarias en media pero no en varianza. Para
estacionarizar una serie que no sea estacionaria en varianza frecuentemente
se emplea una transformación de potencia la cual puede estabilizar su
varianza.
• Es muy frecuente que un proceso no estacionario su varianza cambie a medida
que cambia su nivel, es decir,
)()( tt cfZVar µ=
para alguna constante c y f positivas y f monótona. En estos casos es
posible encontrar una transformación )( tZT de forma tal que )]([ tZTVar sea
constante.
Elkin Castaño –Guillermo Pérez 62
• Cuando la varianza de una serie es una función monótona de su nivel, es
posible estacionarizar la varianza usando una familia de transformaciones
introducida por Box y Cox (1964), la cual está definida por:
0)ln(
01
)( )(
==
≠−
==
λ
λλ
λλ
siZ
siZ
ZZT
t
t
tt
� λ es llamado el parámetro de la transformación.
� λ se obtiene como el valor que minimiza
S( λ )= ∑=
−n
it
tZ2)()(
)ˆ(λλ µ
donde )(ˆ
λµ es la media muestral de la serie transformada usando λ .
Puesto que para cada λ , la suma S( λ ) está medida en una escala diferente,
el valor de λ no puede ser directamente seleccionado por la comparación de
S( λ ) para diferentes valores de λ . Para hacerlas comparables debemos
reemplazar Zt( λ ) por
1( )( ) 0
1
ln( ) 0
tt t
t
ZT Z Z si
Z
Z Z si
λλ λλλ
λ
−= = ≠−
= =
�
�
donde 1/
1
nn
t
t
Z Z=
= ∏
�, es la media geométrica de las observaciones tZ .
• Observaciones sobre la transformación de Box y Cox :
� Sólo está definida para series positivas. Sin embargo, si una serie tiene valores
negativos, la transformación puede ser usada sumando una constante a la
serie de forma tal que se vuelva toda positiva. Esto no altera la estructura de
correlación de la serie.
Elkin Castaño –Guillermo Pérez 63
� Si es necesaria una transformación para estabilizar varianza, debe obtenerse
antes de hacer cualquier otro análisis tal como diferenciar la serie.
� Frecuentemente, la transformación no solamente estabiliza la varianza, sino
que puede mejorar la aproximación a la normalidad del proceso.
� La transformación es útil para realizaciones con un número moderado o grande
de observaciones.
Ejemplo.
Considere los datos anuales del producto nacional bruto (GNP) de EU de 1889 a
1970, representados en el siguiente gráfico.
Producto nacional bruto de EU, 1889-1970
Se observa que a medida que el nivel de la serie crece la variabilidad tiende a
crecer. El gráfico de la primera diferencia muestra claramente como la variabilidad
de los cambios va aumentando a medida que pasa el tiempo.
Primera diferencia del Producto nacional bruto de EU, 1889-1970
Elkin Castaño –Guillermo Pérez 64
Usando la Transformación de Box y Cox para λ en el intervalo [-2, 2] con un
incremento de 0.1, se obtiene la siguiente tabla generada por el proceso de
minimización de la suma de cuadrados, donde ECM= S( λ )/n.
VARIABLE LAMBDA ECM
1 -2.000 .1093E+06
2 -1.900 94221.289
3 -1.800 81575.164
� 12 -.900 29170.873
13 -.800 27003.977
14 -.700 25220.502
15 -.600 23772.451
16 -.500 22621.273
17 -.400 21736.520
18 -.300 21094.795
19 -.200 20678.969
20 -.100 20477.582
21 .000 20484.469
22 .100 20698.543
23 .200 21123.764
24 .300 21769.260
25 .400 22649.650
26 .500 23785.533
27 .600 25204.188
28 .700 26940.527
� 37 1.600 68672.359
38 1.700 78627.086
39 1.800 90492.766
40 1.900 .1047E+06
41 2.000 .1216E+06
El gráfico de λ contra ( ) /S nλ es el siguiente.
Los resultados muestran que una transformación adecuada es λ =-0.1. Por
conveniencia se toma λ =0, es decir que la transformación logarítmica estabiliza la
Elkin Castaño –Guillermo Pérez 65
varianza de la serie. El siguiente gráfico muestra la serie ln( )t
Z , cuya varianza es
estable.
Logaritmo Natural del Producto nacional bruto de EU
A continuación se presenta un programa en EViews para calcular la transformación
incondicional de Box y Cox.
'--------------------------------------------------------------------------------------------------------- 'MACRO PARA EL CÁLCULO DE LA TRANSFORMACIÓN DE BOX-COX '--------------------------------------------------------------------------------------------------------- workfile u 1 2000 '--------------------------------------------------------------------------------------------------------- 'cambie la ruta del archivo de entrada EXCEL 'el nombre de la serie en el archivo Excel debe ser z read(t=xls, a2) G:\UdeA\Pregrado\Curso_eco2\gnp_1889_1970.xls 1 '--------------------------------------------------------------------------------------------------------- smpl if z<>na ' gráfica de la serie original Z graph graf_orig.line Z '--------------------------------------------------------------------------------------------------------- ' Transformación de BOX-COX para estabilizar la varianza de Z '--------------------------------------------------------------------------------------------------------- ' entre el mínimo valor de lamba scalar lmin=-2 ' entre el máximo valor de lamba scalar lmax=2 ' entre el incremento scalar lincr=0.1 scalar numlamb=(lmax-lmin)/lincr+1 equation eq0.ls z c scalar nobs=@regobs series lz=log(z) scalar lk2=@mean(lz) scalar k2=exp(lk2) vector(numlamb) lambdan vector(numlamb) ssen scalar i=0 for !j=lmin to lmax+lincr step 0.1 scalar i=i+1 vector lambdan(i)=!j
Elkin Castaño –Guillermo Pérez 66
scalar k1=1/(!j*k2^(!j-1)) series zlambda=k1*(Z^!j-1) series desv=(zlambda-@mean(zlambda))^2 scalar sse0=@sum(desv) vector ssen(i)=sse0 next series desv=(k2*log(Z)-@mean(k2*log(Z)))^2 ssen(-lmin/lincr+1)=@sum(desv) mtos(lambdan, lambda) mtos(ssen, sse) '--------------------------------------------------------------------------------------------------------- ' El grupo lamb__sse presenta los valores de lambda y de sse '--------------------------------------------------------------------------------------------------------- group lamb__sse lambda sse '--------------------------------------------------------------------------------------------------------- ' El gráfico minimizacion presenta el gráfico de dispersión de sse contra lambda '--------------------------------------------------------------------------------------------------------- graph minimizacion.scat lambda sse '--------------------------------------------------------------------------------------------------------- ' El vector TBOX_COX contiene la transformación de Box-Cox '--------------------------------------------------------------------------------------------------------- scalar tb=@min(sse) smpl if sse=tb vector TBOX_COX=lambda stop CONSTRUCCIÓN de UN MODELO DE SERIES DE TIEMPO: IDENTIFICACIÓN,
ESTIMACIÓN y PRUEBAS DE DIAGNÓSTICO
Dada una serie de tiempo y1, y2, ..., yn, Box y Jenkins presentan un estrategia para
construir un modelo para la serie, basada en tres etapas: identificación, estimación y
diagnósticos o validación del modelo. El siguiente diagrama ilustra la estrategia.
Elkin Castaño –Guillermo Pérez 67
Etapa I: Identificación del modelo
Inicialmente, se propone que la clase general a la que pertenece del modelo que
genera la serie es un modelo ARIMA(p,d,q), de la forma:
A(L)(1-B)d (λ)
ty = m + B(L)εt
bajo las condiciones antes vistas. La etapa de identificación consiste en seleccionar:
λ : el parámetro de la transformación para estabilizar la varianza.
d: El número mínimo de veces que se requiere diferenciar la serie para que sea
estacionaria.
p: El orden de la componente AR.
q: El orden de la componente MA.
m: es necesario incluir una constante?
� La selección de λ es lo primero que se debe hacer, empleando la transformación
de Box y Cox.
Elkin Castaño –Guillermo Pérez 68
� A continuación se identifica el valor de d. Generalmente d es 0, 1, 2. Para la
selección de d se emplean: la gráfica de la serie de tiempo, la ACF muestral y las
pruebas de raíces unitarias.
� La identificación de p y q puede estar basada en el empleo de la ACF y PACF
muestrales. Si el proceso que generó la serie es un AR o un MA, el empleo de la
ACF y la PACF muestrales ayudan en la selección del posible valor de p para el
AR o de q para el MA. La identificación de p y q en un proceso mixto ARMA es
mucho más complicado. Se trata de buscar un modelo que sea parsimonioso, es
decir que los valores de p y q sean bajos y el modelo sea adecuado. Una forma de
proceder es la de estimar todos los modelos ARMA(p, q), para p=0, 1, 2, …,p*, y
q=0,1, 2, ..q*, donde p* y q* son generalmente bajos. Usando el criterio de
información de Akaike (1969),
AIC(m)= -2( 2l / n ) ( m / n )+
o el de Schwarz (1978),
SBC(m)= -2( ln( )/l / n ) m n n+
o el de Hannan-Quinn (1979),
HQ=-2( 2 ln(ln( ))/l / n ) m n n+
donde l es el logaritmo de la función de verosimilitud estimada con m parámetros
y m=p+q (+1 si hay un término constante), se seleccionan el modelo con mínimo
AIC o SBC o HQ y los modelos con valores más próximos a éste. A continuación
se validan y se elige el de mejor comportamiento.
Hannan y Rissanen sugieren una metodología para tratar de seleccionar p y q (Ver
texto Johnston y DiNardo, página 228). Tsay y Tiao (1984) siguieren usar la
función de autocorrelación extendida (EACF) (ver Wei, 2006, página 128).
� Para determinar si es necesario incluir la constante m.
Gráficamente: Si la serie es estacionaria, observe si la serie oscila alrededor de
una valor diferente de cero. Si la serie no es estacionaria, observe si la serie tiene
una tendencia (positiva o negativa) fuerte.
Analíticamente: Inicialmente introduzca la constante y verifique su significancia
estadística una vez el modelo haya sido estimado.
Elkin Castaño –Guillermo Pérez 69
Etapa II: La estimación del modelo
Después de realizar la identificación del modelo se debe estimar el proceso
estacionario seleccionado. La estimación de un modelo mixto ARMA(p,q), conduce a
métodos de estimación no lineal. Los paquetes econométricos han implementado
diferentes metodologías para realizar las estimaciones de estos modelos. Es común
hablar de estimaciones de mínimos cuadrados lineales, no lineales, estimación
máximo verosímil condicional, estimación máximo verosímil incondicional y de máxima
verosimilitud completa o exacta, bajo normalidad del término de perturbación.
Por ejemplo, para el caso de la estimación de un modelo AR(1),
yt=m+αyt-1+εt α<1
se puede emplear OLS siempre y cuando el término de perturbación sea ruido blanco.
En general, un proceso AR(p), estacionario también se estima por OLS. En este caso
los estimadores serán consistentes. Los estimadores de máxima verosimilitud
condicional (condicional a y1, el cual se asume como fijo) de m y α coinciden con los
estimadores OLS: el sistema de ecuaciones que resulta para realizar la estimación de
máxima verosimilitud condicional son lineales. Para un proceso AR(1) la función de