ST2 La Cointegration Dans Un Cadre Multivarie Johansen
ST2 La Cointegration Dans Un Cadre Multivarie Johansen
ST2 La Cointegration Dans Un Cadre Multivarie Johansen
Johansen
La cointégration dans un cadre multivarié
Gilbert Colletaz
3 avril 2017
8 Exemples 23
8.1 Un premier exemple sur séries stationnaires . . . . . . . . . . . . 23
8.2 Un second exemple sur séries I(1) . . . . . . . . . . . . . . . . . . 24
1
1 Les corrélations canoniques
On a deux ensembles de variables X et Y respectivement en nombre nX et
nY . On les suppose stationnaires et centrées de sorte que :
! !
E[Xt Xt> ] E[Xt Yt> ] ΣXX ΣXY
= (1)
E[Yt Xt> ] E[Yt Yt> ] ΣYX ΣYY
Soit encore n = min (nX , nY ) et deux matrices A( n, nX ) et B( n, nY ). On définit
également deux vecteurs de taille n comme :
ut = AXt (2)
vt = BYt (3)
Ainsi, le iième élément de ut (resp. vt ) est une combinaison linéaires des
observations de X (resp. Y) du temps t avec des poids donnés dans la iième
ligne de A (resp. de B). On cherche alors à trouver des pondérations telles que
les combinaisons linéaires au sein de chacun des 2 groupes soient orthogonales
entre elles, de variance unitaire et telles que la corrélation entre les combinaisons
linéaires de rang i construites avec X d’une part et Y d’autre part soit maximale
pour i = 1, . . . , n et accessoirement, de sorte à ce que ces corrélations soient
classées par ordre décroissant. Les corrélations en question sont les corrélations
canoniques. On a donc une structure de la forme :
E[ut u>
t ] = AΣXX A> = I (4)
E[vt v>
t ] = BΣYY B> = I (5)
ρ1 0 ... 0
.. ..
0 ρ2 . .
E[ut v>
t ] = R = .
(6)
. . . . ..
. . 0
0 ... 0 ρn
2
Par suite :
δL
= 0 = ΣXY b − κ1 ΣXX a (9)
δa
δL
= 0 = ΣYX a − κ2 ΣYY b (10)
δb
(11)
d’où :
Σ−1 −1
YY ΣYX ΣXX ΣXY b = λ1 b, et (16)
Σ−1 −1
XX ΣXY ΣYY ΣYX a = λ1 a (17)
On reconnaît alors une structure connue : λ1 , qui est donc le carré de la pre-
mière corrélation canonique, est la valeur propre d’une certaine matrice et a (ou
b) est le vecteur propre associé. En pratique, pour trouver les corrélations cano-
niques, il suffit donc de résoudre un problème de recherche de valeurs propres
et de prendre leurs racines carrées. Entre les deux systèmes précédents, on uti-
lisera plutôt celui dont la dimension est la plus faible, sachant que l’on pourra
ensuite passer sans difficulté de l’un à l’autre système de vecteurs propres en
utilisant l’une des deux équations de transition suivantes (encore tirées de (14)
et (15)) :
1
b = √ Σ−1
YY ΣYX a, ou (18)
λ
1
a = √ Σ−1
XX ΣXY b (19)
λ
3
3 Approche de Johansen et corrélations canoniques
Dans un premier temps, on discute de la réécriture de type Dickey-Fuller
d’un processus vectoriel autorégressif d’ordre p. Cela permet de mettre en évi-
dence la matrice sur laquelle peut être révélé le rang de cointégration, c’est à
dire le nombre de combinaisons linéaires I(0) orthogonales entre elles que l’on
peut construire à partir de k variables supposées I(1). Par la suite, on présente
l’intérêt de considérer les corrélations canoniques pour identifier ce rang de
cointégration, ce qui doit faciliter la compréhension, au moins intuitive de l’ap-
proche de Johansen. Enfin les deux tests proposé par cet auteur permettant la
sélection du rang de cointégration seront présentés.
On rappelle qu’on ne considère ici que des variables qui, si elles sont in-
tégrées, le sont au plus à l’ordre 1, et dans ce cas Δy y = yt − yt−1 est intégré
d’ordre 0. Il ressort, de l’écriture précédente, que 3 cas doivent être considérés
en fonction du rang de la matrice Π :
1. Rang(Π) = k
chacune des composantes du vecteur y est stationnaire en niveau puis-
qu’elles s’écrit comme combinaison linéaire de variables I(0). En effet,
on a :
yt−1 = Π−1 (4yt − Φ∗1 4yt−1 + ∙ ∙ ∙ − Φ∗p−1 4yt−p+1 − ut ) (22)
1. On omet pour l’instant la présence de termes déterministes. leur inclusion sera discutée par
la suite.}
4
Le système est dans ce second cas gouverné par un VAR d’ordre p-1 écrit
sur les différences premières des variables initiales.
3. 0 < rang(Π) = r < k
C’est le cas le plus intéressant. Lorsque toutes les constituantes de y
sont I(1), il signifie que ces variables sont cointégrées et qu’existent r
relations de cointégration. La présence de cointégration est en effet né-
cessaire pour assurer la cohérence de l’écriture (21) : à gauche du signe =
on a une expliquée qui est I(0). Il est donc nécessaire d’avoir un objet qui
soit également I(0) à droite. Or cet objet est construit comme une somme
de composantes I(0), Φ∗1 4yt−1 + ∙ ∙ ∙ + Φ∗p−1 4yt−p+1 + ut , et de combinaisons
linéaires non nulles des niveaux des variables initiales, Πyt−1 . On ne
peut donc retrouver un objet I(0) que si ces combinaisons linéaires sont
elles-mêmes stationnaires, ce qui, par définition, signifie la présence de
relations de cointégration au sein du système yt .
Maintenant, si Π(k×k) est de rang r, alors elle peut toujours s’écrire comme
Π = αβ> (24)
5
yt = Φ1 yt−1 + Φ2 yt−2 + ut , soit encore :
et,
π11 π12 π13
π23
Π = π21 π22
π31 π32 π33
4. Les deux termes d’erreurs I(0) donnés par les deux relations de cointé-
gration
! !
> β> yt−1 β11 y1,t−1 + β21 y2,t−1 + β31 y3,t−1
β yt−1 = > .1 =
β.2 yt−1 β12 y1,t−1 + β22 y2,t−1 + β32 y3,t−1
6
Δyt = αβ> yt−1 + Φ∗1 Δyt−1 + ut , soit encore :
h i h i
Δy1,t = α11 β> y
.1 t−1
+ α12 β> y
.2 t−1
−
h 2 Φ1,1 Δyi 1,t−1 −h2 Φ1,2 Δy i 2,t−1 −2 Φ1,3 Δy3,t−1 + u1,t
Δy2,t = α21 β> y
.1 t−1
+ α 22 β >
y
.2 t−1
−
h 2 Φ 2,1 yi1,t−1 − 2 h 2,2 y2,t−1
Φ i −2 Φ2,3 y3,t−1 + u2,t
Δy3,t = α31 β>.1
yt−1 + α 32 β >
.2
y t−1
−2 Φ3,1 Δy1,t−1 −2 Φ3,2 Δy2,t−1 −2 Φ3,3 Δy3,t−1 + u3,t ,
7
Naturellement il y a une difficulté : même si r valeurs propres sont non
nulles, et donc si λi = 0, i = r + 1, . . . , k, on sait que Prob[λ̂i = 0] = 0. En d’autres
termes nous devons être en mesure de tester cette nullité.
r1
X
LRT = −2 `ˆ rang(Π) = r0 − `ˆ rang(Π) = r1 = −T log (1 − λ̂i ) (30)
i=r0 +1
Le test précédent est connu sous le nom de test de la trace (trace test). Atten-
tion sa distribution asymptotique n’est pas un chi-2 pour la raison habituelle :
sous l’hypothèse nulle, il est construit avec des variables non stationnaires (dans
le cas précédent, sous H0 il y a (r1 − r0 ) racines unitaires ).
Un second test, connu sous l’appellation λ-max, est aussi proposé par Jo-
hansen. Il confronte H0 : "il y a r relations de cointégration" à H1 : "il y a r+1
relations de cointégration", et il vient dans ce cas :
LRT = −2 `ˆ rang(Π) = r − `ˆ rang(Π) = r + 1 = −T log (1 − λ̂r+1 ) (31)
8
Dans VARMAX, la mise en oeuvre de ces tests de Johansen est réclamée par
la présence de l’option COINTEST dans la commande MODEL. Ils ne peuvent être
réalisés que pour des systèmes de dimension k ≤ 11. La ligne d’appel est de la
forme :
MODEL . . . / . . . COINTEST=(JOHANSEN=(TYPE=mot-clef SIGLEVEL=value));
L’option TYPE= précise la nature du test a réaliser : TYPE=MAX pour le test
λ-max, TYPE=TRACE pour le test de la trace. L’option SIGLEVEL gouverne le seuil
de risque et donc les valeurs critiques employées. Les valeurs possibles sont
1%, 5% et 10%. Par défaut, TYPE=TRACE et SIGLEVEL= 0.05 3 .
9
un écart à cette position stationnaire égal à w∗t . Clairement la prise en compte
de cette contrainte dans la sortie précédente revient à diviser par 2 les coeffi-
cients β et à doubler les coefficients α correspondants : cela donne donc comme
"nouvelle" relation de cointégration 4 y1t − .4y2t + 2y3t avec les poids associés
(−1.2, +.6, −2)> et w∗ t = wt /2. Naturellement la valeur de la vraisemblance ne
change pas : il s’agit bien d’une pseudo-contrainte. On peut tout aussi bien de
normaliser à l’unité le coefficient de y2t ou celui de y3t : toutes ces écritures sont
équivalentes 5 . Une leçon importante est qu’on ne doit pas faire d’interprétation
structurelle avec de telles pseudo-contraintes. Il faut notamment prendre garde
à ne pas raisonner en termes de variable expliquée et de variables explicatives
en se référant à une écriture du type régression de cointégration. De ce point
de vue, la procédure de Johansen est moins dangereuse que la procédure en
deux étapes d’Engle-Granger qui, dans sa première étape oblige son utilisateur
à faire un pari sur la nature de la régression de cointégration, à savoir expliquer
y1t par y2t et y3t ou expliquer y2t par y1t et y3t , ou y3t par y1t et y2t avec comme
on le sait des possibles contradictions dans les conclusions des tests d’Engle-
Granger réalisés à la seconde étape notamment lorsque le R2 de la première
étape s’éloigne de l’unité.
va réaliser le test sur le rang de Π en forçant le coefficient de la variable y2 à être égal à l’unité dans le
où les vecteurs de cointégration rangés dans β. Si vous avez compris les précédents développements,
vous savez alors que le résultat du test de cointégration ne dépendra pas de la variable choisie
dans cette normalisation.
10
supposant maintenant que l’on a trois variables dans le système étudié et deux
vecteurs cointégrants. Soit donc les deux relations en question :
β11 y1t + β12 y2t + β13 y3t
(34)
β21 y1t + β22 y2t + β23 y3t
Dans ce système, pour une raison quelconque, on pense que l’une des
relations est définie uniquement à partir des deux variables y1t et y3t . Si on
choisit la première relation pour représenter cette configuration, cela revient
à imposer β12 = 0. Maintenant, si dans le système précédent on multiplie la
β
première équation par − β22 12
, on obtient évidemment toujours une relation I(0)
qui, si on l’ajoute à la seconde, nous donne une structure équivalente de deux
relations stationnaires :
β β
β22 β13
− β12 y1t − β12 y3t β∗12 y1t + β∗13 y3t
22 11
⇔
(35)
β21 y1t + β22 y2t + β23 y3t β21 y1t + β22 y2t + β23 y3t
11
et soit les restrictions suivantes sur le premier vecteur cointégrant β21 = −β11 ,
β41 = −β31 , et, sur le second : β12 = 0,β22 = 0, β42 = −β32 . Les matrices R1 et R2
correspondantes sont donc :
!
1 1 0 0
R1 = (37)
0 0 1 1
1 0 0 0
0
R2 = 0 1 0 (38)
0 0 1 1
avec les vecteurs cointégrants contraints suivants :
β11 0
−β 0
βc = 11 (39)
β31 β32
−β31 −β32
12
résultat obtenu dans un cadre univarié continue malheureusement d’être valide
dans le cadre multivarié.
En outre, le cadre multivarié amène des difficulté supplémentaires qui lui sont
propres et qui vont un peu plus perturber ces distributions asymptotiques.
p−1
X p−1
X
Δxt = α1 (β1 xt−1 + β2 yt−1 ) + a1i Δxt−i + b1i Δyt−i + c1 + u1t (42)
i=1 i=1
p−1
X p−1
X
Δyt = α2 (β1 xt−1 + β2 yt−1 ) + a2i Δxt−i + b2i Δyt−i + c2 + u2t (43)
i=1 i=1
Dans cette structure, comme les expliquées sont des différences premières,
on sait que la présence de constantes non nulles dans les explicatives revient à
imposer l’existence d’un trend déterministe linéaire de pentes respectives c1 et
c2 dans les niveaux de x et y.
13
ce deuxième cas de prise en compte d’une constante, les équations du VECM
auront pour structure (toujours pour k=2 et r=1) :
p−1
X p−1
X
Δxt = α1 (β1 xt−1 + β2 yt−1 + c) + a1i Δxt−i + b1i Δyt−i + u1t (44)
i=1 i=1
p−1
X p−1
X
Δyt = α2 (β1 xt−1 + β2 yt−1 + c) + a2i Δxt−i + b2i Δyt−i + u2t (45)
i=1 i=1
9. En cas de besoin, vous trouverez un ensemble de tables statistiques utiles contenant notam-
ment la table de McKinnon pour les tests de Dickey-Fuller ou de cointégration en deux étapes
à la Engle-Granger, ainsi que la table d’Osterwald-Lenum pour les tests de trace et λ − max ici :
http ://www2.warwick.ac.uk/fac/soc/economics/staff/academic/jeremysmith/manual/statisticaltables.pdf.
10. L’option ECM=... de la commande Model est maintenant considérée comme obsolète.
14
— cas 1 : absence de termes déterministes. C’est le cas que nous avons
considéré jusqu’ici :
p−1
X
>
Δyt = αβ yt−1 + Φ∗i Δyt−i + ut (46)
i=1
Par exemple, dans le cas d’un système bivarié (y1t , y2t ) avec un rang de
cointégration r = 1 11 et p = 5, et le coefficient de y2 forcé à l’unité dans
le vecteur cointégrant, soit :
4
X 4
X
Δy1t = α1 (β1 y1,t−1 + y2,t−1 ) + a1i Δy1,t−i + b1i Δy2,t−i + u1t
i=1 i=1
4
X 4
X
Δy2t = α2 (β1 y1,t−1 + y2,t−1 ) + a2i Δy1,t−i + b2i Δy2,t−i + u2t
i=1 i=1
MODEL y1 y2 / P=5;
COINTEG RANK=1 NORMALIZE=y2 ECTREND;
15
soit par exemple :
4
X 4
X
Δy1t = α1 (β1 y1,t−1 + y2,t−1 ) + a1i Δy1,t−i + b1i Δy2,t−i + c1 + u1t
i=1 i=1
4
X 4
X
Δy2t = α2 (β1 y1,t−1 + y2,t−1 ) + a2i Δy1,t−i + b2i Δy2,t−i + c2 + u2t
i=1 i=1
MODEL y1 y2 / P=5;
COINTEG RANK=1 NORMALIZE=y2;
ainsi :
4
X 4
X
Δy1t =α1 (β1 y1,t−1 + y2,t−1 + β0 t) + a1i Δy1,t−i + b1i Δy2,t−i + c1 + u1t
i=1 i=1
4
X 4
X
Δy2t =α2 (β1 y1,t−1 + y2,t−1 + β0 t) + a2i Δy1,t−i + b2i Δy2,t−i + c2 + u2t
i=1 i=1
et comme exemple :
4
X 4
X
Δy1t = α1 (β1 y1,t−1 + y2,t−1 ) + a1i Δy1,t−i + b1i Δy2,t−i + c1 + d1 t + u1t
i=1 i=1
4
X 4
X
Δy1t = α2 (β1 y1,t−1 + y2,t−1 ) + a2i Δy1,t−i + b2i Δy2,t−i + c2 + d2 t + u2t
i=1 i=1
16
L’ajustement de ce cinquième cas est réalisé au moyen de :
On rappelle que dans ce dernier cas un trend quadratique est imposé dans
le niveau des variables. Cela peut donner un ajustement satisfaisant in-sample
mais conduire à des prévisions complètement délirantes hors période d’esti-
mation : en général il est déconseillé d’ajuster cette structure, sauf à avoir de
bonnes justifications.
17
retardées. Avec SAS, c’est la commande COINTEG qui autorise la mise en
oeuvre de ces tests via la spécification de deux matrices de transition notée
respectivement H pour ce qui concerne les restrictions sur la matrice β et J pour
celles afférentes à α.
Soit encore un VECM composé de trois variables avec une équation de coin-
tégration d’écriture β1 xt + β2 yt + β3 zt + β4 (donc avec constante dans l’espace
de cointégration) que l’on désire réduire à xt − zt . Le test de cette proposition
revient à spécifier une matrice H = (1, 0, −1, 0)> .
Attention : avec SAS, une fois donnée la structure β = HΦ, les restrictions
qu’elle décrit s’imposent à chacune des r relations de cointégration présentes.
En conséquence la statistique de test suit asymptotiquement une loi de χ2 à
r(k − s) degrés de liberté.
18
Le test de nullité de α est encore qualifié de test d’exogénéité faible. Avant
de continuer sur ce thème, il est utile de rappeler quelques définitions.
fx̃, ỹ (xt , yt |λ, Xˉ t−1 , Yˉ t−1 ) = f ỹ|x̃ (yt |λ, Xˉ t−1 , Yˉ t−1 , xt ) × fx̃ (xt |λ, Xˉ t−1 , Yˉ t−1 ) (51)
19
fx̃, ỹ (xt , yt |λ, Xˉ t−1 , Yˉ t−1 ) = f ỹ|x̃ (yt |λ1 , Xˉ t−1 , Yˉ t−1 , xt ) × fx̃ (xt |λ2 , Xˉ t−1 , Yˉ t−1 )
(52)
et on peut, pour estimer ψ1 , considérer uniquement le modèle condition-
nel sans perte d’information utile. En particulier on n’a pas à travailler
sur les lois marginales des variables faiblement exogènes. Au passage,
vous remarquerez que cette exogénéité est relative à un ensemble de
paramètres d’intérêt donnés : si on s’intéresse à d’autres paramètres,
une variable qui était auparavant exogène faible peut très bien perdre ce
statut (et inversement).
2. Exogénéité forte (Strong exogeneity) : xt est une variable exogène forte (i)
si xt est exogène faible et (ii) si y n’est pas un prédicteur avancé de x (ou
encore, si y ne cause pas x au sens de Granger), soit
20
par r relations de cointégration avec 1 < r < k :
! p−1
X !
Δxt > > > ∗ Δxt−i
= αβ (xt−1 , yt−1 ) + Φi + ut (53)
Δyt Δyt−i
i=1
Si les k1 premières lignes de α sont nulles alors les r termes d’erreurs afférents
aux équations de long terme n’interviennent pas dans l’explication des varia-
tions courantes des variables x. En particulier les coefficients de ces équations,
β, n’apparaissent plus dans les k1 premières équations. En l’absence d’autres
contraintes, les coefficients de ces k1 équations appartiennent à un ensemble Λ1
et ceux des k2 suivantes à un ensemble Λ2 et sont tels que la totalité des para-
mètres est dans Λ1 × Λ2 . Dans ces conditions xt est exogène faible pour β. En
d’autres termes, l’estimation de β peut s’effectuer uniquement en considérant
le système partiel suivant :
p−1
X !
Δxt−i
Δyt = α2 β (x> > >
t−1 , yt−1 ) + Φ∗2i + u2t (54)
Δyt−i
i=1
Cela peut être intéressant en pratique puisque les tailles d’échantillon sont
souvent réduites et le passage du système complet au système partiel peut
augmenter sensiblement le nombre de degrés de liberté. Cette réduction doit
également accroître la précision des estimations (à condition naturellement que
les contraintes de nullité imposées sur certaines lignes de α soient vraies).
21
conduit à la réalisation de trois tests : exogénéité faible (de long terme) de xt ,
puis exogénéité faible de yt et finalement exogénéité faible de zt , chacune des
statistiques ayant dans cet exemple sous H0 une distribution asymptotique
χ2 (1).
Dans ce cas, le test de non causalité devrait être effectué sur la représenta-
tion autorégressive en niveau à condition naturellement de pouvoir connaître
la distribution de la statistique. C’est précisément ce que proposent Toda et Ya-
mamoto 12 . Ils montrent que si yt = (y1t , y1t , . . . , ykt) est un vecteur de k variables
intégrées avec yi ∼ I(di ), i = 1, . . . , k, obéissant à une écriture autorégressive
d’ordre p, alors on peut construire une statistique de test d’absence de causalité
12. Toda, H. Y. & Yamamoto,T., Statistical inference in vector autoregressions with possibly integrated
processes, Journal of Econometrics, 1995, 66, 225-250.
22
à l’horizon 1 qui possède asymptotiquement une distribution de χ2 dans un
VAR d’ordre p + d où d = max(d1 , d2 , . . . , dk ).
H0 : Φ1 ( j, i) = Φ2 ( j, i) = . . . = Φp ( j, i) = 0
versus
H1 : l’un au moins de ces coefficients est non nul
8 Exemples
8.1 Un premier exemple sur séries stationnaires
Dans cet exemple nous reprenons les séries simulées à la fin de la première
partie du cours consacrée à la modélisation VAR sur séries stationnaires. Nous
avions trois séries, y1 , y2 , y3 et un VAR sans constante. En plus du test de
cointégration de Johansen, nous avons demandé l’application de tests de racine
unitaire et notamment du test de Dickey-Fuller. Aucune option n’étant spécifiée
pour johansen, c’est le test de la trace qui sera effectué.
Les résultats des tests DF sont présentés dans la table 1. Quelle que soit la
version du test (τ, τμ , τt ), nous serions bien en présence de séries I(0).
23
Table 1 – Résultats des tests de racine unitaire
où uxt , uxt et zxt sont des pseudo-réalisations de gaussiennes i.i.d. centrées ré-
duites indépendantes entre elles. Les deux marches au hasard x et z sont évi-
demment I(1) et y, somme de deux I(1) et d’une I(0) est également intégrée
24
Table 3 – Critère AICC sur les séries I(1)
Figure 1 – Graphique de séries simulées selon les équations (58), (59), (60)
Les valeurs du critère AICC présentées dans la table 3 nous conduisent à re-
tenir un seul retard, ce que confirme l’examen de la table 4 des matrices de
corrélations partielles.
Les autocorrélations résiduelles, non présentées ici sont également non si-
gnificatives. Nous travaillerons donc par la suite avec un VAR(1). La recherche
du rang de cointégration est réalisé au moyen du test de trace de Johansen
avec :
model x y z / p=1 cointtest=(johansen);
L’ensemble des résultats associés à ce test est présenté dans la table 5. Notez
que, toujours à des fins d’illustration, nous n’avons pas utilisé l’option NOINT
25
Table 4 – Matrices des Corrélations partielles
Ici nous avons arbitrairement imposé que le coefficient de la variable ’x’ soit
égal à l’unité. Les résultats suivants sont obtenus :
— Vecteur cointégrant, table 6, et loading factors estimés, table 7.
La relation de cointégration ajustée est donc xt −0.62yt −0.49zt +1.32. Cette
combinaison linéaire serait stationnaire et définit l’écart à l’équilibre de
long terme. La valeur en t−1 de cet écart entre dans l’équation de Δxt avec
un coefficient égal à -0.13, dans celles de Δyt et Δzt avec les coefficients
respectifs de 1.54 et -0.12.
L’estimation de la matrice π, donnée par π̂ = α̂β̂> est donnée dans la
table 8. La procédure affiche également un schéma permettant de repérer
aisément les coefficients significatifs et leur signe, table 9. Ici, les seuls
coefficients non nuls concernent l’équation de Δyt , avec une constante
qui serait positive, et des coefficients de x, y, z respectivement positif,
négatif et négatif.
13. Pour mémoire, lorsque la constante est en dehors de l’espace de cointégration, on a une
constante dans le VECM qui impose un trend linéaire dans l’écriture autorégressive sur les niveaux
des variables. Lorsque la constante est dans cet espace, on a toujours une constante dans le VECM et
seulement une constante dans l’écriture autorégressive. Ceci explique l’intitulé des deux dernières
colonnes des deux premiers tableaux de cette Figure (5).
26
Table 5 – Résultats du test de la trace de Johansen dans VARMAX
27
Table 6 – relation de cointégration estimée
Ainsi, dans chacune des trois équations, les students construits sur les
coefficients testent tous la même chose, à savoir la nullité du coefficient
d’ajustement de l’écart à l’équilibre de long terme.
— Les tests d’exogénéité faible. Il s’agit de tester la nullité des coefficients
α. Cela s’effectue via la commande cointreg
28
Table 9 – Coefficients de π significatifs avec leur signe
29