UNIVERSITE DE BEJAIA FACULTE DES SCIENCES ECONOMIQUES, COMMERCIALES ET DES SCIENCES DE GESTION DEPARTENT DES SCIENCES ECONOMIQUES GUIDE PRATIQUE DES SERIES TEMPORELLES MACROECONOMIQUES ET FINANCIERES AVEC EVIEWS 9.5 REALISE PAR Dr. ABDERRAHMANI FARES MAITRE DE CONFERENCES CLASSE B Année universitaire 2017/2018
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
UNIVERSITE DE BEJAIA
FACULTE DES SCIENCES ECONOMIQUES, COMMERCIALES ET DES SCIENCES DE GESTION
DEPARTENT DES SCIENCES ECONOMIQUES
GUIDE PRATIQUE DES SERIES TEMPORELLES MACROECONOMIQUES ET FINANCIERES AVEC EVIEWS 9.5
REALISE PAR Dr. ABDERRAHMANI FARES MAITRE DE CONFERENCES CLASSE B
Année universitaire 2017/2018
TABLE DES MATIERES
CHAPITRE I : GENERALITES SUR LES SERIES TEMPORELLES
I-1) ANALYSE CLASSIQUE DES SERIES CHRONOLOGIQUES
I-1-1 DEFINITION
I-1-2) COMMENT DEBUTER L’ANALYSE D’UNE SERIE ?
I-1-3) LES DIFFERENTES COMPOSANTES D’UNE SERIE I-1-4) OBJECTIFS DE L’ETUDE D’UNE SERIE
I-1-5) MODELISATION D’UNE SERIE TEMPORELLE
1) LES MODELES D’AJUSTEMENT 2) LES MODELES AUTO PROJECTIFS
3) LES MODELES EXPLICATIFS
I-1-6) LES MODELES DE DECOMPOSITION DES SERIES CHRONOLOGIQUES I-1-7) RECHERCHE DU MODELE DE DECOMPOSITION
I-1-7-1) LA METHODE DE LA BANDE
I-1-7-2) LA METHODE DU PROFIL
I-1-7-3) LA METHODE DU TABLEAU DE BUYS ET BALLOT I-1.8) ANALYSE DE LA TENDANCE
I-1.9) ANALYSE DE LA COMPOSANTE SAISONNIERE
I-1.10) ANALYSE DE LA COMPOSANTE ALEATOIRE I-1.11) DESSAISONALISATION
I -1.12) SERIE AJUSTEE
I-1-13) PREVISION A COURT TERME 1-1-14) EXEMPLE DE CALCUL DES COEFFICIENTS SAISONNIERS PAR LA METHODE
DES RAPPORTS AU TREND)
I-1-15) CALCUL DE LA PREVISION DES VENTES
A) LE MODELE ADDITIF LE TREND (LA TENDANCE GENERALE)
LE CALCUL DES MOYENNES MOBILES CALCUL DES COEFFICIENTS SAISONNIERS ADDITIFS
ÉLIMINATION DES VARIATIONS SAISONNIERES DANS LE MODELE
ADDITIF (XCVS
ÉLIMINATION DE LA TENDANCE EXTRA-SAISONNIERE I-1-16) TEST DE FICHER BASE SUR L’ANALYSE DE LA VARIANCE
I-1-17) EXERCICES PEDAGOGIQUES SUR LES METHODES CLASSIQUES DES
PREVISIONS I-2) CONCEPTS DE BASE DES SERIES TEMPORELLES
- Définitions théoriques : On considère la suite des variables aléatoires constituant
le processus :
- Processus (faiblement) stationnaire (ou stationnaire au second ordre) :
moyenne constante et Cov (Xs, Xt) ne dépend que de s-t
- Processus strictement stationnaire : invariance par toute translation
t t h .
Bruit blanc indépendant et identiquement distribuées : suite de variables centrées,
variables indépendantes et identiquement distribuées.
- Bruit blanc faible : suite de variables centrées, indépendantes, de même variance.
- Bruit blanc gaussien : suite de variables normales, centrées, indépendantes, de
même variance.
- La marche au hasard : est un autre cas particulier de processus stochastique pour
lequel la valeur prise par X à la date T est régie par l’équation suivante :
ttt XX 1 où t est une variable aléatoire qui présente les mêmes propriétés
Pour étudier si une série temporelle approche un bruit blanc on utilise :
- ACF : fonction d'autocorrélation On appelle fonction d’auto corrélation )(h de
processus Xt la fonction : )(h =YtXt
htt XX
),cov( =
)0()0(
)(
h
- PACF : fonction d'autocorrélation partielle : la fonction d'autocorrélation
partielle de X à distance h est la corrélation entre X0 et Xh lorsque les valeurs
intermédiaires X1, X2, ..., Xh-1 sont fixées.
Ces fonctions dépendent d'un paramètre (le décalage ou lag h) et on en fait donc des
représentations graphiques.
Exemple : le calcul des fonctions FAC et PAC sous Eviews avoir au moins 40 observations et
se limiter aux
h n
4 .
CHAPITRE I : GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES
16
Les premières valeurs des autocorrélationsont significativement différentes de 0 : la série
proposée n'est pas un bruit blanc.
I-2-1-1) TESTS DE BRUIT BLANC
- Test de Bruit Blanc (BOX-PIERES et LYUNG BOX) : le test de BOX-PIERE
permet d’identifier les processus de BB. Les hypothèses du test sont données
comme suit :
Et n: le nombre de retard.
Pour effectuer ce test, on calcule la statistique de BOX-PERCE notée :
On rejette l’hypothèse d’un bruit blanc au seuil de si
- TEST DU PORTEMANTEAU : Sous H0,
Q n 2(k)k1
K
suit une loi du khi-2 à K
degrés de liberté
I-2.1.2) AUTRES TESTS
- Test de Durbin-Watson: permet de détecter une autocorrélation des erreurs d’ordre 1 selon
la forme : Le test d’hypothèse est le suivant :
vs
Pour tester l’hypothèse nulle H0, nous calculons la statistique de Durbin-Watson :
Où : résidus d’estimation. Cette statistique varie de 1 à 4 et nous avons DW=2 lorsque . Afin de tester l’hypothèse nulle, Durbin et Watson ont tabulé les valeurs critiques au seuil
de 5% en fonction de la taille de l’échantillon n et de nombre de variables explicatives. La
lecture de la table permet de déterminer deux valeurs comprise entre 0 et 2 qui
délimitent l’espace entre 0 et 4. La règle de décision est prise de la manière suivante :
CHAPITRE I : GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES
17
Si on accepte H1
Si on accepte H0 :
Si on accepte H1
Si
I-2.1.3) LES TESTS DE BRUIT BLANC AVEC EVIEWS
Eviews fournit les résultats des fonctions d’autocorrélation simple (colonne AC) et
partielles (colonne PAC), avec les correlogrammes respectifs. Les bornes de l’intervalle de
confiance sont stylisées par des pointillés horizontaux ; chaque terme qui sort de cet intervalle
est donc significativement différent de zéro au seuil de 5%. En observant le correlogramme
de la série produit intérieur brut de l’Algérie, on peut se permettre de dire que la série n’est
pas stationnaire. En effet, on se trouve confronter à un correlogramme typique d’une
chronique affectée d’une tendance : une fonction d’autocorrélation simple qui décroît
lentement quand le retard augmente et une fonction d’autocorrélation partielle qui fait
apparaître un pic significatif, en l’occurrence le premier terme qui est égal à 0.894. De plus la
série n’est pas caractéristique d’un bruit blanc ( il semble même caractéristique d’un
processus non stationnaire), car la valeur de la statistique Q-stat2 (153,11) pour un retard h=11
est largement supérieure à la valeur de khi deux au seuil de 5%. Ce qui donne une probabilité
critique nulle pour ce test, autrement dit, on a un risque de zéro de rejeter à tort l’hypothèse de
nullité des coefficients pk.
a) TESTS DE CARACTERE GAUSSIEN
Lorsqu'une série est un bruit blanc, il est utile d'étudier s'il s'agit d'un bruit blanc gaussien. On
peut alors utiliser le test de Jarque-Bera ou le test de d'Agostino (qui s'appuient sur le calcul
de l'asymétrie et de l'aplatissement de la série). Sous Eviews le test se déroule de la manière
est fixe et ne dépend de l’information disponible au temps t-1. En fait, l’hypothèse et ~
N(0,2) nous amène à ce résultat, ce qui est manifestement trop restrictif. Il nous faut un
modèle beaucoup plus souple et plus réaliste de la variance conditionnelle. Il s’agit d’un
modèle ARCH(p)
Regardons le terme d’erreur de plus près :
E[et | yt-1, ...,] = 0 Espérance zéro
E[et et-j] = 0 Non corrélé
E[et2 | et-1, ...,] = Et-1et
2 = ht = 0 + 1 et-1
2 Variance conditionnelle
où 0 > 0 et 1 > 0 pour garantir que ht soit en tout temps positif (il s’agit d’une variance). ht
dépend maintenant de l’information disponible à la période t-1. Quand et-1 est grand (positif
ou négatif), ht est aussi plus élevé et les chances d’obtenir un et grand augmente. Si
CHAPITRE II : PREVISION ET MODELISATION UNIVARIEE
35
effectivement le et obtenu est grand, ht+1 est aussi plus élevé et les chances d’obtenir un et
grand demeurent importantes jusqu’à ce que le terme d’erreur généré soit petit, ce qui stabilise
les choses pour quelques périodes jusqu’à ce que un nouveau et grand soit tiré. Le modèle
ARCH(1) permet de générer des épisodes de volatilité importante (des et positifs ou négatifs
grands) suivis d’épisodes de volatilité plus faible, exactement le phénomène retrouvé dans les
données Plus spécifiquement, on dit AutoRegressive Conditional Heteroskedasticity. De plus,
bien que non corrélés, les termes d’erreurs et ne sont plus indépendants entre périodes
adjacentes puisque ht dépend de et-1 , donc des données de la période précédente.
Pour trouver la variance non conditionnelle, j
Et-2Et-1et2 = Et-2[0 + 1 et-1
2]
= 0 + 1 Et-2et-12
= 0 + 1 ht-1 car Et-1et2 = ht et Et-2et-1
2 = ht-1
= 0 + 1 (0 + 1 et-22)
= 0 + 10 + 12 et-2
2
Et-3Et-2Et-1et2
= Et-3[0 + 10 + 12et-2
2]
= 0 + 10 + 12 Et-3et-2
2
= 0 + 10 + 12ht-2
= 0 + 10 + 12(0 + 1 et-3
2)
= 0 + 10 + 120 + 1
2 et-3
2
En reculant de plus en plus vers le passé Et-j...Et-3Et-2Et-1et2, nous aurons une progression
géométrique qui convergera vers
1
0
1
= Var (et) = E (et
2) =
2 = Variance non conditionnelle
1.
Il est important de noter que pour que la variance non conditionnelle soit positive, 0 > 0 et 0
< 1 < 1.
Deux façons d’écrire un modèle ARCH :
Retour vers la moyenne
ht = 2 + 1 (et-1
2 -
2)
car
)1
(1 1
02
11
1
0
tt eh
2
11
1
10
1
0
11
tt eh
2
110 tt eh
1 Attention, il ne faut pas confondre la variance non conditionnelle 2 avec la variance conditionnelle de la section sur le rappel. Même si la notation est la même, nous avons deux concepts très différents. Nous avons
gardé la notation 2 pour la variance non conditionnelle compte tenu de son utilisation généralisée dans les manuels.
CHAPITRE II : PREVISION ET MODELISATION UNIVARIEE
36
2-6-2) AUTOREGRESSIVE DANS LES ERREURS AU CARRE
Commençons par construire l’évidence suivante :
et2 = ht + vt où vt = et
2 - ht
et2 = 0 + 1 et-1
2 + vt
et Et-1vt = Et-1et2 – Et-1ht = ht - ht Et-1ht = ht car ht est fonction de et-1
2 connu en t-1. = 0
Comme vt est un terme d’erreur tout à fait acceptable, les erreurs au carré suivent un
processus AR(1) d’ou le nom de modèle ARCH.
II-6-3) SIMULATION
Comment simuler des erreurs de type ARCH. Supposons la formule suivante utilisée dans le
programme GARCH
et = vt (0 + 1 et-12)
½
où vt est un bruit blanc, i.e. Et-1vt = 0 et Et-1vt2 = 1.
Et-1et = Et-1vt (0 + 1 et-12)
½
= 0 (0 + 1 et-12 )
½ =0
Et-1et2
= Et-1vt2 (0 + 1 et-1
2)
= 1 (0 + 1 et-12)
= 0 + 1 et-12
II-6-4) DÉTECTION
Soit : (1) yt = + yt-1 + et où et ~ N(0,ht)
1. On estime le modèle (1) à l’aide des On trouve les résidus estimés êt et donc les êt2
2. On calcule les coefficients d’auto-corrélations des résidus au carré. Si le processus est
ARCH, les résidus au carré seront corrélés
3. On peut construire le test de Mc Leod (semblable au test de Ljung-Box)
p
j
j
jTTTpQ
1
2ˆ)2()(
suit une
2 avec p degrés de libertés
4. On peut faire un test de Lagrange formel en effectuant la régression suivante :
5.
êt2 = 0 + 1 êt-1
2 + 2 êt-2
2 + ... + p êt-p
2 + vt
TR2 de la régression suit une
2 avec p degrés de libertés. La méthodologie Lagrange prend
ici toute son importance. Il serait très difficile d’utiliser une approche de Wald.
II-6-5) ESTIMATION
On se rappelle que la fonction de vraisemblance conditionnelle d’un AR(1) est donnée par
T
t
tt yyTTyL
22
122
2
)(ln
2
1)2ln(
2
1)|,(ln
Dans le cas des erreurs ARCH, nous avons
et ~ N(0,ht) et la fonction de vraisemblance peut facilement être modifiée en remplaçant 2
par ht
CHAPITRE II : PREVISION ET MODELISATION UNIVARIEE
37
T
t t
ttT
t
th
yyh
TyL
3
1
3
102
)(ln
2
1)2ln(
2
2)|,,(ln
avec ht = 0 + 1 et-12. Notons que le retard d’une période dans le ARCH combiné au retard
d’une période dans le AR nous force à débuter l’estimation à la période 3.
L’adaptation à un modèle ARCH(p) est relativement simple. Il faut tout simplement tenir
compte dans les formules de la structure suivante :
ht = 0 + 1 et-12 + 2 et-2
2 + ... + p et-p
2
Avec 0, 1, ..., p > 0 et 1+ ... +p < 1 pour garantir que la variance non conditionnelle
p
...1 1
02
soit positive. Le modèle ARCH(p) permet une persistance beaucoup plus grande dans la
volatilité car il incorpore des retards plus éloignés dans les et2. Cependant, plus les retards
sont importants, plus il est difficile d’obtenir la condition 0, 1, ..., p > 0. Plusieurs sont
souvent négatifs ... ce qui nous amène à une classe de modèle encore plus générale qui pourra
régler ce problème.
II-6-6) APPLICATION A LA SERIE TAUX DE CHANGE DA/DUS.E XEMPLE TIRE
D’UN ARTICLE INTITULE MODELES ARCH : APPLICATION AUX TAUX DE
CHANGE ALGERIEN. INTERNATIONAL JOURNAL OF INNOVATION AND
Le graphe 1 représente l’évolution du taux de change DZA/US Dollar. Il montre la
présence d’une tendance peu claire sur l’ensemble de la période, caractérisée, en premier
lieu, par une tendance baissière dans la 1ère partie (allant jusqu’au point près de 08) et,
ensuite, une tendance haussière. La lecture visuelle de ce graphe indique une non
stationnarité en moyenne et en variance (surtout en variance). Ce même graphe montre des
regroupements de volatilité, ce qui signifie que cette série est volatile.
Nous remarquons, par ailleurs, que cette volatilité évolue au cours du temps. Cela nous
permet de dire qu’un processus de type GARCH pourrait être adapté à la modélisation de la
série du taux de change. Afin de réduire la variabilité de la série du taux de change, nous
avons transformé cette série en logarithme. Cette nouvelle série est appelée logTCH
Graphe1:Evolution du taux de change du dinar algérien
Le tableau suivant reporte un certain nombre d’indicateurs statistiques, à savoir : le
coefficient d’asymétrie (skeweness), le coefficient d’aplatissement (kurtosis) et la valeur
estimée de la statistique de Jarque-Bera
CHAPITRE II : PREVISION ET MODELISATION UNIVARIEE
38
Les indicateurs statistiques de la série du taux de change
De ce tableau nous constatons que :
- Le coefficient de kurtosis (3,65) est un peu élevé. Il est supérieur à la valeur du
kurtosis de la loi normal, qui est égale à 3. La valeur de ce coefficient trouvé indique
que la courbe de la série de taux de change est plus aplatie que la courbe de loi
normale. Cette valeur du coefficient témoigne de la forte probabilité d’occurrence de
point extrêmes ;
- Le coefficient de skeweness (- 0,18) est différent de zéro (la valeur théorique du
coefficient de skeweness pour une la loi normale). Ce coefficient montre la présence
de l’asymétrie de la courbe de la série du taux de change. Le coefficient de cette
asymétrie est négatif. Ce qui nous permet de dire que la distribution est étalée vers la
gauche. Ce signe négatif nous indique, par ailleurs, que le taux de change de Dinar
Algérien réagisse d’avantage à un choc négatif qu’à un choc positif. Cette asymétrie
peut être un indicateur de non linéarité ;
- Le test de Jarque - Bera rejette l’hypothèse nulle de normalité de la distribution du
taux de change (JB = 94,53 > Khi-deux à 2dl = 5,99).
De l’analyse du graphe 1 et du tableau 1 de la série du taux de change, nous déduisons qu’un
modèle ARMA non linéaire de type ARCH peut être adéquat à ce cas.
III-6-6-1) MODÉLISATION ARMA
a) ETUDE DE LA STATIONNARITÉ
Pour confirmer où infirmer la non stationnarité de la série étudiée, nous utilisons le
test ADF. Les tests de Dickey – Fuller sont des tests paramétriques permettant de mettre en
évidence le caractère stationnaire ou non d’une chronique, par la détermination d’une
tendance déterministe ou stochastique. Ces tests reposent sur l’estimation d’un processus
autorégressive.
L’application de test de ADF nécessite, au préalable, de choisir le nombre de retard p
à introduire de sorte à blanchir les résidus. La valeur p de retard est déterminée soit à l’aide
de la fonction des autocorrélations partielles, soit à l’aide de la statistique de Box-Pierce,
soit, enfin, à l’aide des critères d’Akaike (AIC) où de Schwartz (SIC). Cette détermination du
nombre de retard, à l’aide de la fonction des autocorrélations partielles, est faite par l’étude
de la significativité des coefficients des corrélations partielles. En appliquant cette méthode,
tout en se basant sur l’étude de corrélogramme de la série, nous obtenons le retard un pour la
série logarithme du taux de change. Après avoir déterminé le retard pour notre variable, nous
adoptons la stratégie séquentielle du test d’ADF pour examiner la stationnarité de notre
variable. Le tableau suivant résume notre application :
CHAPITRE II : PREVISION ET MODELISATION UNIVARIEE
39
Il ressort de ce test que la constance et le trend sont significatifs au seuil de 5%. En effet,
leurs P-values qui sont respectivement de 0,0001 et 0,0328 sont inférieures à 0,05. La
statistique du test ADF, qui est de - 3,94, est inférieure à la valeur critique - 3,41, au seuil de
5 %. De ce fait, nous pouvons conclure que la série est stationnaire.
b) IDENTIFICATION DE L’ORDRE P ET Q DE ARMA
Pour identifier l’ordre p et q d’un processus ARMA, nous utilisons le corrélogramme de la
fonction d’autocorrélation et la fonction d’autocorrélation partielle de la série stationnaire
logarithmique de taux de change (logTCH). Le corrélogramme de la fonction
d’autocorrélation permet d’identifier un modèle MA(q), alors que le corrélogramme de la
fonction d’autocorrélation partielle nous permet de déterminer un modèle AR(p). D’après ce
corrélogramme (annexe 1), nous constatons que la première autocorrélation (simple et
partielle) de la série logTCH est significativement différente de zéro. Nous retenons donc les
modèle suivants : AR(1), MA(1) et ARMA(1,1).
c) ESTIMATION DE L’EQUATION DE LA MOYENNE
On procède à l’estimation des trois processus précédemment identifiés : processus AR(1),
MA(1) et ARMA(1,1) dans le tableau suivant :
Au regard de ces résultats, on peut remarquer que :
- Les t de Student du coefficient de modèle AR(1) sont significativement différents de 0
(le t de Student est supérieur à 1,96). D’où le modèle AR(1) est retenu ;
- Les t de Student du coefficient de modèle MA(1) sont significativement différents de 0
(le t de Student est supérieur à 1,96). Par conséquent le modèle MA(1) est retenu ;
- Les t de Student du coefficient de modèle ARMA(1) sont significativement différents
de 0 (le t de Student est supérieur à 1,96). Donc, le modèle ARMA(1) est retenu.
CHAPITRE II : PREVISION ET MODELISATION UNIVARIEE
40
d) TEST SUR LES RÉSIDUS
TEST D’ABSENCE D’AUTOCORRELATION DES RESIDUS
Pour cela, nous appliquons le test de Lejung-Box (LB) d’absence d’autocorrélation des
résidus, pour un nombre de retard maximal 36 pour les trois modèles :
- Ainsi pour les résidus du processus AR(1), la statistique du test de LB est de 1354
pour un nombre de retard égal à 36. Cette statistique suit une loi de khi-deux à 35
degrés de liberté. La valeur théorique de Khi-deux à 35 degrés de liberté est égale à
46,03, au seuil statistique de 5%. En conséquence, l’hypothèse nulle d’absence
d’autocorrélation des résidus est rejetée ;
- Pour les résidus du processus MA(1), la statistique du test de LB est égale à 111547
pour un nombre de retard égal à 36. tout comme pour le processus précédant, cette
statistique suit une loi de khi-deux à 35 degrés de liberté. La valeur théorique de Khi-
deux à 35 degrés de liberté est de 46,03, au seuil statistique de 5%. De ce fait, on
rejette l’hypothèse nulle d’absence d’autocorrélation des résidus ;
- Enfin pour les résidus du processus ARMA(1,1), la statistique du test de LB vaut
1637,4 pour un nombre de retard égal à 36. Comme pour les deux autres modèles,
cette statistique suit une loi de khi-deux à 34 degrés de liberté. La valeur théorique de
Khi-deux à 34 degrés de liberté est de 46,03, au seuil statistique de 5%. Donc,
l’hypothèse nulle d’absence d’autocorrélation des résidus est rejetée.
Nous constatons, en outre, que la probabilité affectée aux autocorrélations, pour les trois
modèles, est inférieure à 0,05. Par voie de conséquence on rejette l’hypothèse nulle d’absence
d’autocorrélation des résidus.
- Nous résumons les caractéristiques de la forme des résidus dans le tableau 4 ci-
dessous :
Les indicateurs de la forme (tableau 4) et l’analyse du graphe des résidus indiquent la
présence de volatilité. D’où, il y a lieu de suspecter la présence d’une série non stationnaire
en variance.
TEST ARCH
Pour réaliser le test ARCH, nous récupérons les résidus issus de l’estimation. Ensuite nous
procédons à l’estimation de la régression suivante :
Pour se faire, il faut, au préalable, déterminer le nombre de retards q à retenir. Pour cela, le
corrélogramme des résidus au carré du modèle AR(1), MA(1) et ARMA(1,1) nous permet, en
tenant compte du critère de parcimonie13, d’opter pour un nombre de retards égal à deux. Le
test ARCH pour les trois modèles se résume dans le tableau 5 ci-après, comme suit :
CHAPITRE II : PREVISION ET MODELISATION UNIVARIEE
41
On peut remarquer du tableau 5 ci-dessus que la probabilité associée à la statistique de test
T*R2 est nulle et inferieure à 0,05 pour les trois modèles. Ce constat nous permet de rejeter
l’hypothèse nulle d’homoscédasticité, mais en retenant l’alternative d’hetéroscédasticité
conditionnelle pour les trois modèles AR(1), MA(1) et ARMA(1,1).
e) CHOIX DU MODÈLE
Il ressort de ces résultats que les résidus de trois processus estimés sont autocorrélés et
hétéroscédasticité. Afin de départager les trois processus, comparons-les au moyen des
critères de choix de modèles. Les résultats sont donnés dans le tableau ci-contre.
D’après ce tableau 6, tous les critères nous conduisent à choisir le processus ARMA(1,1)
pour représenter la dynamique de la série logTCH.
f) MODÉLISATION ARCH. ESTIMATION DE L’EQUATION DE LA VARIANCE
Nous avons trouvé dans la section précédente que le modèle ARMA(1,1) présente une
hétéroscédasticité des erreurs. Le graphe des résidus ci-dessous, nous la montre
parfaitement. Afin de tenir compte de l’effet ARCH, nous estimons, par la méthode du
maximum de vraisemblance, l’équation de la variance conditionnelle conjointement à
l’équation de la moyenne.
En se basant sur la taille de l’échantillon et de l’étude de French, Schwert et
Stambaugh(1987), nous déterminons l’ordre q et p pour le modèle GARCH (p,q), en se basant
sur le corrélogramme des résidus au carré. Ce dernier présente les deux premières
autocorrélations (simples et partielles) significativement différentes de zéro. D’où, l’on
retient le modèle :
- Un processus AR(2) – ARCH(2)
CHAPITRE II : PREVISION ET MODELISATION UNIVARIEE
42
g) ESTIMATION DE MODELE ARCH(2)
Pour estimer le modèle ARCH (2), nous utilisons le logiciel EVIEWS. Cette estimation est
résumée dans le tableau suivant :
Le tableau de l’estimation d’ARCH(2) montre que les coefficients de paramètre de l’équation
de la variance sont significativement différents de zéro et positifs. Par conséquent, les
coefficients vérifient les contraintes assurant la positivité de la variance. De ce fait, le modèle
ARCH(2) est retenu comme modèle représentant la variance conditionnelle du logarithme de
taux de change.
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
43
III-1) MODELES MULTIVARIES DES SERIES TEMPORELLES
Proposée dans les années 1980 par Sims, la modélisation VAR a d’abord connu l’opposition
des économètres « classiques » (adeptes de la formalisation produite par la Cowles
Commission). En effet ces derniers plutôt adeptes de la théorie, basaient leurs modèles sur des
fondements théoriques et considéraient qu’il était indispensable de faire des hypothèses de
relations entre les variables. Pour les adeptes de l’approche empirique, le modèle devait
reposer sur des résultats statistiques solides ce qui permettait de révéler la structure des
variables.
Les avantages de la modélisation non structurelle VAR sur la modélisation classique sont
d’une part qu’elle autorise une meilleure analyse dynamique des systèmes en tenant compte
de la structure intrinsèque1 de la série et des effets dynamiques entre les variables et d’autre
part qu’elle permet d’envisager toutes les relations causales entre deux variables sans a priori
sur l’exogénéité de l’une d’entre elles. Les modèles VAR prolongent les travaux de Granger
(1969) sur la relation causale entre deux variables. Dans cette optique, Sims propose une
modélisation étendant l’analyse de la causalité à un système de plusieurs variables. Il propose
pour cela de traiter toutes les variables à l’identique, sans condition d’exclusion ou
d’exogénéité et en sélectionnant un retard identique pour chacune d’entre elles dans toutes les
équations.
Les modèles VAR comportent toutefois des limites. Tout d’abord, se pose le problème du
nombre de variables à inclure dans le modèle et du problème d’estimation qui en découle. En
effet, les modèles VAR se distinguent des modèles structurels basés sur la théorie par une plus
grande part laissée à l’empirisme, mais dans ce cas, combien de variables choisir ? Le nombre
de variables à inclure dans le modèle, pose ainsi le « problème des degrés de liberté qui
s’évanouissent » . En effet, si l’on considère 20 variables et 4 retards, cela nous conduit à
estimer 80 coefficients par équation et bien souvent, le nombre de coefficients inconnus est
proche de la taille de l’échantillon analysé. Une autre critique souvent adressée aux modèles
VAR consiste au peu de théorie auxquels ils font référence qui leur offre ainsi le qualificatif
de modèles a-théoriques. Ce débat « theory versus measurement » avait déjà opposé les
économistes dans les années 1920 et refait surface dans les années 1980 avec les travaux de
Sims. Toutefois, le débat « theory versus measurement » est loin d’être clos et si l’on reproche
aux modèles VAR leur manque de théorie, on reproche aussi aux modèles théoriques des
partisans de la Cowles Commission leur manque de souplesse. Dans ces modèles, chaque
équation du modèle décrit l’évolution d’une variable en fonction :
- de ses valeurs passées ;
- des valeurs passées des autres variables du système.2
1 La structure intrinsèque de la série se rapporte à son identification au sein de la classification ARIMA (Box et
Jenkins, 1976).
2 Soit encore en formalisant :
ntptn
p
nntnnnpt
p
ntntn
tptn
p
ntnnpt
p
tt
YYYYY
YYYYY
,1,
1
,111,1
1
1,
1,11,
1
1,1111,1
1
11,1
.............
...
...
...
.............
avec n = nombre de variables ;
p = nombre de retards ;
pij = coefficient de la variable j de retard p dans l’équation de la variable i.
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
44
Une fois déterminé le retard optimal, l’analyse peut prendre deux orientations non exclusives :
l’étude de la dynamique du modèle d’une part et l’étude des relations causales ensuite. Cette
dernière peut prendre deux formes : d’une part l’analyse des relations de long terme via la
notion de cointégration et d’autre part, l’étude des relations de causalité.
Apparu pour la première fois en 1964 avec les travaux de Sargan, le terme de cointégration ne
sera véritablement théorisé qu’en 1986 par Granger. La cointégration capte l’idée que deux ou
plusieurs séries évoluent ensemble dans le temps et génèrent un équilibre statistique de long
terme alors qu’à court terme, les variables peuvent évoluer dans des directions différentes.
Toutefois, si elles continuent d’évoluer les unes loin des autres à long terme, des forces
économiques telle qu’un mécanisme de marché ou l’intervention publique permettra de les
ramener les unes vers les autres.
Dans le cadre de la modélisation VAR, la présence de cointégration nécessite une correction
du modèle (Vector Error Correction Model, VECM) qui tienne compte de cette relation afin
d’éviter le risque de régressions fallacieuses (Granger et Newbold, 1974). En effet, lorsque
deux séries sont cointégrées, se pose un problème d’estimation et la bonne qualité statistique
du modèle est dans ce cas due au fait que les séries sont non stationnaires ; dans ce cas
l’utilisation du modèle à des fins prévisionnelles n’est pas fiable.
Outre l’identification du processus générateur de chaque variable du modèle grâce aux
tests de racines unitaires, la finalité d’un modèle VAR est l’identification des relations de
causalité entre les variables. La mise en évidence de relations causales entre les variables
économiques permet une meilleure compréhension des phénomènes économiques et par là
une meilleure mise en place de la politique économique. La définition de la causalité est
donnée par Granger (1969) : la variable y2t cause la variable y1t si la prédictibilité de cette
dernière est améliorée lorsqu’on incorpore l’information relative à y2t dans l’analyse. Il existe
deux approches de la causalité : Granger (1969) et Sims (1980)3.Bien que ces deux approches
soient généralement équivalentes (Bruneau, 1996)
III-2) EXEMPLE D’APPLICATION DE LA THEORIE DE COITNEGRATION
(APPROCHE GRANGER Exemple tiré d’un article intitulé « Les déterminants du chômage en Algérie : une analyse
économétrique (1980-2009). Lahcene Bouriche, Université Dr Moulay Tahar, Saida, Algérie
Résumé Cette étude montre l’existence une relation de co-intégration au sens d’Engel et Granger, entre le taux de chômage et certaines variables d’ordre économiques et financières liées aux réformes économiques engagées en Algérie depuis la fin des années 80. Ces variables sont entre autres, la productivité du travail les dépenses nationales brutes et le taux d’escompte. Il ressort de l’étude aussi que le taux de chômage en Algérie n’est pas corrélé avec les importations, le taux d’inflation , le taux de change et les cotisations sociales du fait que ces dernières variables n’ont pas d’influence significative sur le comportement du taux de chômage selon l’étude statistique et économétrique. Néanmoins, l’étude montre que la relation entre le taux de chômage, la productivité du travail et le taux d’escompte n’est pas conforme aux énoncées théoriques bien qu’il existe un mécanisme à correction d'erreur.
3 La causalité au sens de Granger (1969) met l’accent sur l’importance du processus retardé et concerne la
propagation d’impulsions déterministes interprétables comme des modifications liées à des changements
structurels. Sims (1980), au contraire, considère que si les valeurs futures de y1t permettent d’expliquer les
valeurs présentes de y2t , alors y2t est la cause de y1t ; son analyse se fonde sur la propagation d’impulsions
stochastiques représentatives de « surprises ». Ces deux approches sont généralement équivalentes (Bruneau,
1996).
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
45
La démarche de modélisation se déroule de la manière suivante :
III-2-1) LA PRESENTATION DU MODELE
La spécification retenue dans le cadre de cette étude s’ecrit de la manière suivante :
U=f (PT, INf, TCH, DNB, ESC, M, D1)
U : le taux de chômage annuel ;
PT : la productivité du travail ;
TCH : le taux de change ;
INF : le taux d’inflation ;
DNB : les dépenses nationales brutes par habitant ;
ESC : le taux de d’escompte ;
M : les importations (%PIB).
D1 : représente une variable muette qui indique le changement structurel, elle prend le
nombre de 1 dans l’année où il ya une instabilité et le nombre 0 lorsque la situation est et
stable.
On écrit notre modèle sous la forme log-linéarisée. Car, l’un des avantages de
l’utilisation de la forme logarithmique linéaire est qu’elle permet de : minimiser l’influence
des effets du temps sur la série, réduire le nombre d’étapes pour aboutir à une série
stationnaire et interpréter les coefficients en élasticité ce qui nous facilite l’analyse
économique a savoir l’impact d’un taux de variation de la variable explicative de 1% sur le
taux de variation du taux chômage. Le modèle (1) s’écrit de la forme suivante
ɛ: Le terme d’erreur qui tient compte de toutes les variables quantitatives ou qualitatives non
intégrées dans le modèle. C’est l’erreur d’estimation. On s’attend à ce que le résidu soit très
faible.
III-2-2) ESTIMATION ET L’ANALYSE CRITIQUE DES RESULTATS
Pour estimer ce modèle linéaire, nous appliquerons la méthode des moindres carrés
ordinaires (MCO. Néanmoins, afin de pouvoir tester à l’aide des tests ordinaires (Student et
Ficher), les coefficients issus de la méthode des moindre carrés ordinaires, nous allons
d’abord étudier la stationnarité des séries. Si les séries sont stationnaires, on pourra
directement appliquer la méthode des moindres carrés ordinaires sans aucune contrariété
pour l’application des tests classiques de significativité des coefficients. Cependant, si les
séries ne sont pas stationnaires en niveau, nous recourrons à la théorie de la co-intégration.
Cette théorie permettra en présence du non stationnarité et sous certaines hypothèses de
pouvoir appliquer la MCO sans souci pour la validité des tests classiques de significativité.
L’étude de la co-intégration part des tests de co-intégration des séries à étudier. Elle nous
permettra par la suite de savoir s’il existe une ou plusieurs relations de long terme entre les
variables à étudier. Selon le cas, on envisagera un modèle à correction d’erreurs (MCE) ou
un modèle vectoriel à correction d’erreur (VEC
III-2-2-1) LA STATIONNARITE DES SERIES Après la spécification du modèle et avant les estimations, il convient d’étudier la stationnarité
des séries chronologiques du fait que les variables économiques et financières étant rarement
des réalisations de processus stationnaire. Il conviendra alors pour nous de procéder aux
tests de stationnarité des différentes séries à étudier c’est-à-dire étudier ses caractéristiques
stochastique à savoir si son espérance et sa variance se trouvent modifiées dans le temps, la
série temporelle est considérée comme non stationnaire ; dans le cas contraire ou le
processus stochastique est invariant, la série chronologique est stationnaire (Bourbonnais,
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
46
1998). Pour notre étude, nous avons utilisé, le test de Dickey-Fuller Augmenté (ADF) et
Phillips-Perron. Les résultats des Tests ADF et PP sont donnés dans le tableau suivant :
Le tableau 1 indique que les tests statistiques ADF et PP calculés en niveau sont supérieurs
aux valeurs critiques aux seuils de signification de 1%, 5% et de 10% respectivement, donc
on accepte l'hypothèse d’existence de racine unitaire par conséquent les séries ne sont pas
stationnaires. Après avoir différencié les séries une fois, les estimations font apparaitre que
les tests statistiques ADF et PP calculés sont inferieurs aux valeurs critiques au seuil de
signification de 1%, 5% et de 10%. Donc les séries sont devenues stationnaires après être
différenciées une fois.
III-2-2-2) ESTIMATION DE LA RELATION DE LONG TERME
Les résultats de l’estimation du modèle (1) sont dans le tableau suivant ;
Les valeurs de R2 (0.92) et R2 ajusté (0.89) montrent que l'ensemble des variables
explicatives choisies du modèle théorique ont bien une influence sur la variable expliquée. Le
Durbin-Watson qui est égal à (1.91) montre l'absence d'une éventuelle auto corrélation des
erreurs. Le modèle dans sa globalité est valide au seuil de 5%, (Prob F-statistic est inferieur
à 0,05). Néanmoins, lorsqu’on prend les variables explicatives séparément, les résultats
indiquent qu’un seul coefficient est significatif en plus de la constante. Il s’agit du coefficient
de la variable des dépenses nationales brutes (lnDNB) . Ces résultats indiquent qu’une
augmentation de (1 %) des dépenses nationales brutes, provoque une diminution de (3.70 %)
du taux de chômage.
Maintenant, on enlève du modèle(1) les variables qui sont moins significatives dans
l’estimation du modèle précédent. On obtient, alors, une autre spécification présentée dans le
modèle (2) comme suit :
On estime le modèle (2) dont les résultats de l’estimation sont donnés comme suit :
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
Test formel (adf : lag automatique) : uroot lc ; uroot ly test adf sur “lc”
MODELE [3]
Modèle [2]
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
51
Modèle [1]
Note : la série « LC » est non stationnaire du type DS (intégrée d’ordre 1).
Les résultats ci-dessous, la série « LY » est également non stationnaire/NS du type DS
(intégrée d’ordre 1). La 1ère condition (nécessaire), pour conclure à l’existence d’une relation
de cointégration entre les deux séries.
Modèle [3]
Modèle [2]
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
52
Modèle [1]
III-3-2) ESTIMATION DE LA RELATION DE LONG TERME ET TEST DE
STATIONNARITE SUR LES RESIDUS ESTIMES
ESTIMATION DE L’EQUATION D’EQUILIBRE/RELATION COINTEGRANTE
OU EQUATION STRUCTURELLE/DE LONG TERME
LCt= 0+ 1LYt+ɛt pour t=1949 Q1 …………………1989 Q3
Instruction Sur Eviews : Ls LC c Ly
TEST DE STATIONNARITE SUR LES RESIDUS DU MODELE A LT ESTIME
Ls LC c LY
Genr res=resid
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
53
Les résidus du modèle à LT estimé étant Stationnaires en niveau sans trend et sans intercept,
les résultats d’estimation du Modèle à Correction d’Erreur/MCE.
III-3-3) ESTIMATION DU MODELE A CORRECTION D’ERREURS
SPECIFICATION DU MODELE
La relation entre la consommation et le revenu permanent, suivant le modèle de
FRIEDMAN (1997), se présente comme suit :
Avec :
Pour des raisons pédagogiques, nous estimons un MCE suivant :
(i) la méthode à une seule étape de BANERJEE et al. (ou MCE à la Handry), spécifié
de la manière suivante :
2 est la force de rappel ou coefficient d’équilibre/ajustement ; « 1 » est l’élasticité à court
terme Consommation du Revenu ; et «- 3 ⁄ 2 » mesure l’élasticité à long terme. En outre «
[1 ⁄ 2] » traduit le retard moyen : soit le temps moyen (période) nécessaire pour que 100% des
effets de la variable indépendante se fassent ressentir sur la variable dépendante.
(ii) la méthode à deux étapes de Engle et Granger, spécifié comme suit :
«Ɣ » est la force de rappel ou coefficient d’équilibre/ajustement ; « 1 » est l’élasticité à court
terme Consommation-Revenu.
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
54
Estimation du MCE
A la Banerjee et al. : ls DLC DLy LC(-1) LY(-1)
A la Engle et Granger : ls DLC DLY res(-1)
REMARQUE
Les deux méthodes fournissent des résultats semblables à quelques différences près ;
seulement, l’approche de Banerjee et al. (elle est retenue dans ce cadre) nous aide
particulièrement à calculer l’élasticité de long terme.
Dans tous les cas, la force de rappel est statistiquement significative ; elle est négative
et est comprise entre « 0 » et « 1 » en valeur absolue2, ce qui fonde à affirmer que nos
séries « LC » et « LY » sont cointégrées
III-3-4) INFERENCE ET INTERPRETATION (SPECIFICATION A LA BANERJEE) Tous les paramètres sont statistiquement significatifs et le modèle spécifié explique environ
60% des variations des dépenses de consommation (le modèle a passé tous les tests
diagnostics, il est globalement bon et l’ajustement aussi :
Force de rappel : Disons que les chocs sur les dépenses de consommation se corrigent
à 7.75% par l’effet de « feed back » ; autrement dit, l’on arrive à ajuster 7.75% du
déséquilibre entre le niveau désiré et effectif des dépenses de consommation
Retard moyen = | 1⁄ 0.077| : Un choc constaté sur les dépenses de consommation en
est entièrement résorbé au bout de 4 ans, 9 mois et 8 jours en moyenne ;
Elasticité à court terme : A court terme, si le revenu augmente de 10%, les dépenses
de consommation varie dans le même sens pour 2.29% ;
Elasticité à long terme (0.077407 ⁄ 0.077517=0.9998) : A long terme, si le revenu
augmente de 10%, les dépenses de consommation varie dans le même sens pour 9.99
%.
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
Si l’hypothèse nulle est rejetée, alors il y’a une relation de long terme entre les
variables, sinon il n’y a aucune relation de long terme entre les variables. La statistique du test
F-stat ou statistique de Wald suit une distribution non standard qui dépend du caractère non
stationnaire des variables régresseurs, du nombre de variables dans le modèle ARDL, de la
présence ou non d’une constante et d’une tendance ainsi que de la taille de l’échantillon. Deux
valeurs critiques sont générées avec plusieurs cas et différents seuils : la première
correspondant au cas où toutes les variables du modèle sont I(1) : CV-I(1) qui représente la
borne supérieure ; la seconde correspond au cas où toutes les variables du modèles sont I(0) :
CVI(0) qui est la borne inférieure. (D’où le nom de « bound testing approach cointegration »
ou « approche de test de cointégration par les bornes »).
Alors la règle de décision pour le test de cointégration est la suivante :
Si F-stat > CV-I(1), alors l’hypothèse nulle est rejetée et donc il y’a cointégration.
Si par contre F-stat < CV-I(0), alors l’hypothèse nulle de non cointégration est
acceptée.
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
57
Si la F-stat est incomprise entre les deux (2) valeurs critiques, rien ne peut être
conclu.
Dans le cas où il existe une relation de long terme entre les variables (cointégration), le
modèle de long terme s’écrit :
)3..(..........)(
)log(()log()log()log()log(
0
1
0
1
001
0
t
P
i
t
P
i
tit
P
i
iit
P
i
i
P
i
itit
INF
TINTTCHPIBMM
Une fois que la relation de long terme est mise en évidence et validée, il est possible
alors d’estimer le modèle à correction d’erreur (ECM), qui indique la vitesse
d’ajustement vers l’équilibre de long terme, après une perturbation de court terme.
L’équation du modèle à correction d’erreur est la suivante :
)5..()()log(
)log()log()log()()log(
00
001
1111
tit
P
i
iit
P
i
i
it
p
i
tit
p
i
i
P
i
tltt
INFTINT
TCHPIBMECMM
III-4-1-2) TEST DE LA RACINE UNITAIRE Bien que les tests de racine unitaire ne soient pas une exigence du test de cointégration
de Pesaran et Al (2001), il convient de vérifier que les séries sont intégrées d’ordre au plus
égal à un. En outre, les tests de racine unitaire permettront de déterminer le nombre de retards
à ajouter aux modèles vectoriels pour le test de causalité. Les résultats du test de présence de
la racine unitaire de Dickey et fuller augmenter mené sur les trois variables, la consommation
d’électricité, le produit intérieur brut par habitant et le prix réel de l’électricité, sont résumé
dans le tableau. Pour ces cinq variables, ce test est réalisé à partir d’un modèle avec constante
et tendance linéaire. En effet, les résultats du test montrent que la plupart des séries étudiées,
sont intégrées d’ordre 1. Les résultats du test de DFA sont consignés dans le tableau suivant :
Modèle [3] Modèle [2] Modèle
[1]
Ordre I
constant trend ADF test constant ADF test ADF test
Log(M2R) 1.72 0.6 -0.74 5.09 -1.81 1.5 I(1)
Log(PIBR) 3.40 1.81 -1.90 3.6 1 / I(1)
Log(TCH) 1.92 2.22 -2.59 1.64 1.36 0.21 I(2)
(Log(TINT) 0.13 0.46 -1 1.48 -1.46 -4.46 I(1)
(INF) 1.47 0.72 -1.95 1.44 -1.91 -1.24 I(1)
Etant données que les résultats de racine d'unité sont en faveur d'un test de cointégration, nous
avons utilisé la méthode ARDL en sélectionnant la structure du retard optimal à inclure dans
l’estimation du modèle ARDL à l’aide du critère d’information d’Akaike4. Sous EVIEWS 9.5
la procédure se déroule de la manière suivante :
4 Cependant, si le modèle établi avec le retard optimal comporte une autocorrélation, on ajoute un autre retard
sur les variables en différence premières qui donne la plus petite valeur de Schwarz. Si le problème
d'autocorrélation persiste toujours, le processus continue jusqu'à ce que ce problème d’autocorrération soit
résolu. Étant donné que les données examinées sont annuelles dans cette étude, une période de quatre est retenue
comme retard maximum
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
58
Détermination du nombre de retard du modèle ARDL
Les statistiques d'Akaike suggèrent un ARDL (4,2, 0, 4,0).
III-4-1-3) ESTIMATION DU MODELE ARDL (4,2, 0, 4,0).
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
59
III-4-1-4) TEST DE COINTEGRATION (BOUNDS TEST)
La statistique du test de cointégration est F-stat = 15.36274 et les valeurs critiques simulées
par Narayan et al. (2005) pour k= 5, n= 37 et modèle avec trend et constante sont : CV-I(0)
=2.56 et CV-I(1)=3.49 On a bien : F-stat > CV-I(1). L’hypothèse nulle du test est alors
rejetée. Il existe alors une relation de long terme entre les variables.
III-4-1-5) ESTIMATION DE LA RELATION DE LONG TERME
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
60
III-4-1-6) ESTIMATION DU MODELE ECM
III-4-1-7) INTERPRETATION DES RESULTATS DES ESTIMATIONS
L’interprétation de ces résultats se base sur l’analyse des signes des coefficients de
l’équation d’encaisse réelle. Dans se sens, le tableau précédent montre que les signes sont
conformes a attentes théoriques. En effet l’encaisse réelle est positivement influencé par le
volume réel des transactions économiques, l’élasticité de la demande de monnaie par rapport
aux volumes de ces transactions est inférieur à l’unité, donc il y a des économies d’échelle
dans la demande de monnaie en Algérie. Pour ce qui est du taux de change, les résultats
montrent un impact négatif sur la demande de monnaie. Donc, on assiste à une fuite devant la
monnaie nationale remplacée par des devises. On note aussi que le résultat du taux d’intérêt
est mitige par le fait qu’elle a un signe positif (non conforme aux attentes théoriques) qui peut
être interprète par une faible contribution comme instrument du mécanisme de transmission
de la politique monétaire. Les résultats confirment que nous sommes devant une fonction de
demande de monnaie de transaction et la théorie quantitative est confirmée. Alors, les
autorités monétaires et la banque de l'Algérie doivent prendre en consécration la masse
monétaire comme objectif intermédiaire de la conduite de la politique monétaire en Algérie.
Les différents tests effectués sur la relation de long terme montre que le modèle estimé
ne comporte pas de problème d’autocorrélation et d’hétéroscédasticité conditionnelle. Il
n’existe pas non d’erreur de spécification
III-4-1-8) DIAGNOSTICS DU MODELE ESTIME
TEST D’AUTOCORRELATION Breusch-Godfrey Serial Correlation LM Test:
F-statistic 0.601107 Prob. F(2,20) 0.5578
Obs*R-squared 2.097983 Prob. Chi-Square(2) 0.3503
Les résultats du modèle de court terme montrent que le coefficient à correction
d’erreur ECM est négatif et significatif à 1%. Le coefficient de -0,39 indique une vitesse très
élevée de convergence vers l’équilibre de long terme. Cela traduit que les déviations à court
CHAPITRE III ANALYSE MULTIVARIEE : MODELES VAR, VECM et ARDL
61
terme de l’équilibre de la masse monétaire se corrigent à 39% par an. Le modèle de court
terme donne quasiment des résultats similaires à celui de long terme.
Par la suite, une série de tests économétriques est effectuée sur le résidu afin de valider
le modèle. Il s’agit des tests de normalité (Jarque-Bera), d’absence de corrélation sérielle
d’ordre 12 (LM-test de Breusch-Godfrey), d’homocédasticité de White (White-test) et enfin
de stabilité des coefficients (CUSUM test)
TEST DE STABILITE DES COEFFICIENTS
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
62
VI-1). PRESENTATION DU LOGICIEL EVIEWS
Une combinaison de puissance et de facilité d'utilisation font
d'Eviews l’outil idéal pour tous ceux qui travaillent avec des séries
chronologiques, des coupes transversales ou des données
longitudinales. Avec Eviews, vous pouvez gérer rapidement et
efficacement vos données, effectuer des analyses économétriques et
statistiques, générer des prévisions ou des simulations de modèles et
produire des graphiques et des tableaux de haute qualité pour
publication ou inclusion dans d'autres applications.
Eviews offre aux chercheurs universitaires, entreprises, agences
gouvernementales et aux étudiants l’accès à de puissants outils
statistiques, de prévision et des outils de modélisation à travers une
interface orientée-objet, innovante. Eviews allie le meilleur de la technologie logicielle
moderne avec des fonctionnalités de pointe. Le résultat est un programme performant qui
offre une puissance sans précédent au sein d'une interface flexible, facile à utiliser.
VI-2). LES FONCTIONNALITES
Logiciel d'économétrie moderne et convivial offrant toutes les fonctions nécessaires en
analyse financière, prévision macro-économique et simulations :
1) Estimations, prévisions, analyses statistiques, simulations, gestion de données, réunies
dans une puissante interface orientée objet
2) Techniques d'estimation d'équations pour des séries chronologiques, des tableaux
croisés...
3) Évaluation de modèles : tests d'hypothèse, modèles ARCH...
4) Prévision et simulation : simulation stochastique, méthode de Monte-Carlo,
prévisions statistiques et dynamiques...
5) Gestion des données : conversion automatique des fréquences, prise en charge des
formats Excel 2007 et ASCII, import de fichiers de la base de données FRED,
interaction avec les programmations sous MATLAB et R, plus de 4 millions
d'observations par séries...
VI-3). LES AVANTAGES
Ces avantages sont nombreux :
IV. L’installation
Eviews est disponible sous différentes plateformes : Windows, IOS et linux. Il faut donc
adapter l’installation aux différents types de système d’exploitation avec une multitude de
version « student, entreprise, … »
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
63
VI-4). DEMONSTRATION
1. Créer un nouveau projet
Pour la création d’in nouveau projet, il suffit de cliquer sur file -> new -> workfile
Notre exemple sera basé sur un échantillon de fréquences mensuelles depuis 1900 à 2015
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
64
VI-5). GENERER UNE SERIE TEMPORELLE ALEATOIRE
Création une série aléatoire, se fait par une commande : Quick -> generate series … Y =
nrnd
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
65
VI -6). LES STATIQUES DE BASES
Les statiques de bases comme la moyenne, écart type, la médiane etc. sont simple à traiter.
VI-6-1). L’AUTOCORRELATION
Pour calculer les autocorrélations, il existe une fonction qui se génère automatiquement, «
Auto Correlation Function AC »
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
66
VI-6-2). LA STATIONNARITE D’UNE SERIE TEMPORELLE Pour étudier la stationnarité, il existe deux tests, le teste de Dickey-Fuller et le teste de Phillips-
Perron.
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
67
L’hypothèse Nulle : Présence de racine unitaire : Série non Stationnaire et l’Hypothèse
alternative : Pas de racine Unitaire : Série Stationnaire
La P-Value: 0.0009 accepte H0 la série est non stationnaire. Aussi il y a un second moyen de
vérification. Il faut que le T-Statistic : -37.66114 soit supérieur en valeur absolue au Test
Critical Values. (2.56; 1.94 ; 1..61). Le T-Statistic est supérieure, la série est stationnaire et
donc pas de racine unitaire.
VI -6-3). LISTER LES COEFFICIENTS D’UNE SERIE AUTO REGRESSIVE AR(P) ET
MOYENNE MOBILE MA(q)
Par exemple, générer les coefficients d’une série AR(3), on utilise la commande suivante : Ls
y ar(1) ar(2) ar(3)
Aussi pour les séries moyenne mobile, il suffit de changer ar par ma : Ls y ma(1) ma(2)
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
68
VI-7). LISTER LES COEFFICIENTS D’UNE SERIE ARMA (p, q)
Eviews par défaut, traie les séries come des séries de type ARMA (p.q), et pour afficher les
coefficients d’une ARMA (p,q), il suffit de combiner les commande de lister les coefficients
AR(p) et de MA(q)
Ls y ar(1) ar(2) ar(3) ma(1)
VI-8) ESTIMATION DU MODELE LINEAIRE A UNE EQUATION SOUS EVIEWS
La spécification d’un modèle linéaire à une équation: concepts et analyse. La saisie des
données sur Excel (feuille d’entrée), la création de « workfile » et l’importation des données
par le logiciel « Eviews ». L’estimation du modèle et les tests, notamment les tests de
diagnostics sur les termes d’erreur (résidus), de restriction sur les coefficients et sur les tests
de stabilité. Des analyses approfondies ont été faites sur les résultats de l’estimation du
modèle, les différents tests et surtout l’interprétation de ces résultats sur le plan
macroéconomique.
VI-8-1) SPECIFICATION ET HYPOTHESES.
Considérons la fonction de consommation suivante :
Soit un modèle de consommation des ménages C = a + bY + ε avec :
C= la consommation
Y= le revenu
ε est le terme d’erreur (ou résidu), il capte l’ensemble de variables explicatives non prises en
compte dans la spécification.
Les hypothèses sur le terme d’erreur ε: • Moyenne nulle (les erreurs se compensent); • ε doit
avoir une variance constante (hypothèse d’ homoscédasticité); • Les ε doivent être
indépendantes (les erreurs au temps t ne sont pas influencées par les erreurs au temps t-1) ; •
Les ε suivent une distribution normale.
VI-8-2) ETAPES A SUIVRE POUR ESTIMER LE MODELE AVEC EVIEWS
On peut exécuter les commandes Eviews soit par l’approche menus, soit par l’approche
programme. Saisie de données sous Excel (feuilles d’entrée) Les données statistiques sont
saisies dans EXCEL. Il faut bien noter trois choses : • La période des observations ; • Le
nombre de variables ; • Le nom des variables. Dans notre exemple, nous avons trois variables
C, Y et P. Après avoir noté ces trois éléments, fermez EXCEL.
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
69
IMPORTATION DES DONNEES
Lancez Eviews. Créer un « workfile » : Sélectionner « File/New/Workfile », comme indiqué c
ci-dessous
Apres avoir validé on obtient l’écran suivant :
Dans la fenêtre Start date, entrez la date ou l’année de début de vos séries. Et dans la fenêtre
End date, entrez la date de fin de vos séries. Après avoir rentré les dates, cliquez sur OK pour
valider et voici le tableau que vous obtiendrez
Les données apparaissent dans le « workfile » et nous pouvons maintenant passer aux
estimations. Il faut toujours enregistrer ou sauvegarder le « workfile ». Pour cela, cliquez sur
« Save » et donnez le nom du « Workfile ».
Il faut toujours enregistrer ou sauvegarder le « workfile ». Pour cela, cliquez sur « Save » et
donnez le nom du « Workfile ».
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
70
ESTIMATION SOUS EVIEWS 9.5
A l’étape de l’estimation, vous pouvez choisir l’une des trois formes : niveau, logarithmique
et semi-log. Ici nous allons faire l’estimation en log. L’avantage de cela est d’obtenir une
transformation linéaire d’un modèle non linéaire et d’obtenir directement les élasticités.
Cependant, il faudrait noter qu’une fois les simulations faites, il faudrait revenir aux valeurs
en niveau en prenant les exponentielles. Le modèle ici est linéaire. Nous avons estimé le
modèle en niveau et en logarithme. L’estimation en logarithme nous donne les élasticités
partielles. Pour estimer l’équation, il y a deux façons de faire : - Sélectionnez les variables en
commençant par la variable endogène ; clic droit et sélectionnez « Open as Equation ».
Quand vous cliquez sur « as Equation », vous obtenez le tableau ci-dessous.
Dans cette estimation, vous avez choisi les moindres carrés ordinaires et vous faites une
estimation en niveau. Si vous cliquez sur OK, vous aurez les résultats des estimations, mais en
niveau. Si vous voulez les estimations en log, vous pouvez cliquer directement sur la fenêtre,
comme indiqué :
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
71
Quand vous cliquez sur OK, vous obtenez les résultats suivants :
Dependent Variable: LOG(CNS)
Method: Least Squares
Date: 04/06/18 Time: 22:43
Sample: 2006 2015
Variable Coefficient Std. Error t-Statistic Prob.
C 5.907385 4.638027 1.273685 0.2385
LOG(REV) 0.353630 0.502520 0.703714 0.5016
R-squared 0.058293 Mean dependent var 9.171144
Adjusted R-squared -0.059420 S.D. dependent var 0.104424
S.E. of regression 0.107482 Akaike info criterion -1.446134
Sum squared resid 0.092419 Schwarz criterion -1.385617
A ce niveau, il s’agira de s’assurer si, dans une équation de comportement par exemple, les
ménages n’ont pas changé de comportement depuis une certaine période.
Etape 4.1 Test de Chow
Ce test sert à :
- détecter s’il existe ou pas une année de cassure
- estimer les équations avant et après l’année de cassure
a) si les coefficients des deux droites sont égaux → pas de cassure dans la série
b) Si les coefficients des deux droites sont différents → break point détecté
View - stability test - Chow test –validez
H0 : Pas de changement de comportement → stabilité du modèle sur toute la période
H1 : Changement des comportements → modèle n’est pas stable sur toute la période.
Etape 4.2 : Test de Cusum
Ce test vous suggère :
- à quel point il y a eu rupture dans les habitudes de comportement
- la variation des comportements à travers l’intervalle de confiance
- mesurer l’ampleur du choc (structurel ou conjoncturel) ¾ Structurel ( quand la
courbe sort de l’intervalle de confiance et ne rentre pas dans cet intervalle),
conjoncturel ( quand la courbe sort et entre par la suite dans l’intervalle de confiance)
View - stability test - Recursive estimation –validez
Etape 5. Détection de la muticollinéarité
On parle de « multicollinéarité », si on est en présence des variables explicatives qui
s’expliquent entre elles. On parle d’un modèle redondant. Les variables explicatives doivent
être indépendantes sinon, on aura la confusion des effets sur la variable endogène.
Un modèle parcimonieux est toujours conseillé car vaut mieux avoir peu de variables qui
expliquent beaucoup la variable endogène que d’avoir plusieurs variables qui n’expliquent
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
79
rien du tout. Pour détecter s’il y a multicollinéarité ou pas, on passe par la matrice des
corrélations « correlation matrix »
View - correlation simple - correlation matrix
Si deux variables sont fortement corrélées (proche de 1) c'est-à-dire qu’on peut utiliser l’une
à la place de l’autre et vice- versa. Mais pas les deux en même temps car cela à pour
conséquence de rendre l’autre variable non significative.
Etape 6. Coefficient de détermination R2 et R2 ajusté
Le R2 renseigne sur le niveau d’explication (en %) du modèle par les variables explicatives
prises en considération et il est compris ente 0 et 1. S’il est proche de 1, le modèle est plus
que satisfaisant. Cependant, c’est le R2 ajusté (version pénalisée de R
2, qui choisit entre
plusieurs modèles alternatifs) car le coefficient de détermination simple R2 augmente
(mécaniquement) avec le nombre de variables explicatives prises en compte dans le modèle.
R2 ajusté < R
2 ; R2 ajusté = f (n, k) ou k = nombre de variables explicatives.
Etape 7. Tests de significativité globale du modèle
Etape 7.1 : Test de Fischer
Ce test renseigne sur la significativité des coefficients des variables explicatives prises
globalement. Il s’agit de vérifier s’il existe au moins un coefficient significatif.
H0 : a = 0 ; b = 0 → tous les coefficients sont nuls
H1 : a = 0 ; b = 0 → il y a au moins un coefficient qui n’est pas nul c'est-à-dire significatif
Interprétation des probabilités : Idem (on se réfère toujours aux probabilités)
Etape 7.2 Test de Student
Ce test renseigne sur la significativité des coefficients des variables explicatives (exogènes)
prises individuellement.
H0 : b = 0 → coefficient nul (pas significatif)
H1 : b = 0 → coefficient non nul i.e significatif. Interprétation des probabilités :Idem
A RETENIR : Pour des tests de significativité, il faut savoir ce qu’on veut tester et se
mettre en tête que l’hypothèse nulle (H0) sera toujours l’hypothèse que l’on veut mettre à
l’épreuve.
Prévision Après avoir effectué une régression, cliquez
sur le bouton Forecast du menu de la fenêtre
équation et choisissez la méthode adéquate.
- Prévision dynamique: pour chaque
période, la valeur prévue à la date t-1
est utilisée pour calculer la prévision
à la date t.
- Prévision statique: pour une période
au delà de la période d’observation,
cette prévision
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
80
VI-8-6) ESTIMATION DES SYSTEMES D’EQUATIONS SUR EVIEWS 9.5 Création d’un système :
Sélectionner Objects/New object/System puis écrire le système d’équation
Méthodes d’estimation :
1) Ordinary Least Squares : Minimise la somme des carrés des résidus pour chaque
équation en tenant compte d’éventuelles contraintes
2) Cross-Equation Weighting: Minimise la somme des carrés des résidus pondérés (en
tenant de l’éhétéroskédasticité). Les poids sont définis par l’inverse de la matrice de
variance-covariance
3) -Seemingly Unrelated Regression (SUR): Minimise la somme des carrés des résidus
pondérés en tenant de l’éhétéroskédasticité et de la corrélation entre les équations M.
KOUKI M. KOUKI - IEQ 2004 IEQ 2004 38
4) -Two-Stage Least Squares (STSLS): Cette technique est appropriée lorsque une
variable explicative est corrélée avec les résidus
5) -Weighted Two-Stage Least Squares (WTSLS) : La version TSLS de la méthode
Weighted Least Squares
6) -Three-Stage Least Squares : La version TSLS de la méthode Weighted Least
Squares de la méthode SUR
7) - Full Information Maximum Likelihood (FIML)
8) -GMM
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
81
Creation d’un nouveau systéme par exemple :
@STACKINST
@INST
GDPR = C(1)
INF = C(2)
G = C(3)
VI-8-7) ESTIMATION DES MODELES VAR SUR EVIEWS
Création d’un objet var :
Dans la fenêtre de travail sélectionner Objects /New Objetcs / VAR
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
82
VI-8-8) TEST DE CAUSALITE DE GRANGER Dans la fenêtre de travail: Sélectionner les variables (dbdp gdpr, inf) et avec le bouton droit sélectionner open as group
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
83
Dans la fenêtre group sélectionner View puis Granger Causality ensuite donner le nombre de
retards.
On accepte l’hypothèse de causalité si F statistiques est supérieure à la valeur de la table de
Ficher au seuil de alfa%. Ou bien si la probabilité est inférieure à alfa.
VI-8-9) PAIRWISE GRANGER CAUSALITY TESTS :
Pour chaque équation du VAR on teste si une variable endogène peut être traité comme
exogène.
Dans le menu sélectionner View/ Lag Structure/Pairwise Granger Causality Tests
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
84
Dans l’équation la variable GDPR les deux variables G et INF seraient exogènes.
Dans l’équation la variable G la variable GDPR serait exogène Dans l’équation la variable INF les deux variables GPDR et G seraient exogènes.
VI-8-10) LA FONCTION IMPULSION REPONSE
Sélectionner View/Impulse Response
Le choc est égal à une unité du résidu Le choc est égal à une unité du de l’écart-type des résidus Les chocs utilisés correspondent à l’inverse de la factorisation de cholesky de la matrice de var/cov des
résidus (ordre?)
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
85
VI -8-11) TEST DE COINTEGRATIONDE JOHANSEN
Sélectionner View/Cointegration Test
CHAPITRE VI : PRESENTATION DU LOGICIEL EVIEWS 9.5
86
VI-8-12) ESTIMATION D’UN VECM
REFERENCES BIBLIOGRAPHIQUES
87
1) AKAIKE H. [1973], Maximum Likelihood Estimation of Gaussian Autoregressive
Moving Average Models, Biometrika, 60, 255-265.
2) ANDRSON, T.W. (1951). Estimating linear restrictions on regression coefficients for
multivariate normal distributions. Annals of Mathematical Statistics 22, 327-351.
Correction in Annals of Statistics 8, 1400 (1980).
3) ANTOINE D’AUTUME, «Cointegration et modèles dynamiques», Economie et
Prévision 106 (1992).
4) Bourbonnais R, Terraza M (2004), Analyse des séries temporelles, Application à
l'économie et à la gestion, Ed. DUNOD, Paris, *
5) Bresson G. et A. Pirotte, (1995), Econométrie des séries temporelles : théorie et
applications, PUF, 658 pages.
6) Campbell J., A. Lo et A. C. MacKinlay, (1997), The Econometrics of Financial Markets,
Princeton, 611 pages
7) Chris B (2014). Introductory econometrics for finance. 3rd Edition
8) Cohen A., Lotfi S., Mélard G., Ouakasse A. et Wouters A., « Formation en analyse
des séries temporelles », Actes des XXXIVes Journées de Statistique, Bruxelles et
Louvain-la-Neuve, 13-17 mai 2002, Paris, Société Française de Statistique, p. 296-