Cours de Series Temporelles
Cours de Series Temporelles
Cours de Series Temporelles
THEORIE ET APPLICATIONS
VOLUME 1
Introduction la thorie des processus en temps discret
Modles ARIMA et mthode Box & Jenkins
ARTHUR CHARPENTIER
arthur.charpentier@ensae.fr
Arthur CHARPENTIER
Contents
1 Introduction et notations
1.1 Approches temps/frquences : un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Analyse harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Modles autoregressifs et moyennes mobiles . . . . . . . . . . . . . . . . . . . . .
1.1.3 Lapproche temporelle : concept de corrlation srielle . . . . . . . . . . . . . . .
1.1.4 Lquivalence entre les deux approches temps/frquence . . . . . . . . . . . . . .
1.2 Les dveloppements rcents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Les modles ARM A, ARIM A et SARIM A : modles linaires . . . . . . . . . .
1.2.2 Modles ARCH - volatilit stochastique . . . . . . . . . . . . . . . . . . . . . . .
1.2.3 Les processus mmoire longue . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.4 Les processus multivaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.5 Exemple : histoire de la prvision des modles conomiques (macroconomiques )
1.2.6 Remarque sur les processus de comptage ou valeurs dans un espace dtats nis
1.2.7 Remarque sur les donnes hautes frquences . . . . . . . . . . . . . . . . . . . . .
1.3 Thorie des processus temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Stationnarit des processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Proprit de Markov en temps discret . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Objectifs de ltudes des sries temporelles . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Description et modlisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2 Prvision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.3 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5 Conseils bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
7
8
8
9
9
9
10
11
12
13
13
14
14
16
17
17
17
17
17
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
19
20
21
21
21
23
24
25
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
29
29
30
30
31
32
32
33
34
34
34
37
38
38
38
39
Arthur CHARPENTIER
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
40
40
40
41
45
45
46
46
46
47
48
49
49
50
51
51
52
52
52
54
54
55
56
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
57
58
58
58
59
61
61
62
64
66
66
66
67
67
68
69
70
70
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
73
73
73
73
74
75
77
77
77
79
79
80
82
83
.
.
.
.
.
.
.
.
.
.
.
.
.
Arthur CHARPENTIER
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
86
86
87
89
92
94
94
96
97
99
99
100
100
101
102
104
104
107
108
108
109
111
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
114
114
114
115
121
122
123
124
125
125
126
126
129
129
129
130
130
132
134
134
134
135
139
139
139
140
140
141
142
143
6.4
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Arthur CHARPENTIER
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
des formules de
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
. . .
. . .
. . .
. . .
mise
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
. . .
. . .
. . .
. . .
jour
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
145
145
145
146
146
146
147
147
147
148
148
149
149
149
150
152
153
153
155
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
156
156
156
157
161
162
162
163
164
165
165
166
166
170
170
171
173
176
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Arthur CHARPENTIER
Introduction et notations
Ltude des sries temporelles, ou sries chronologiques, correspond lanalyse statistique dobservations rgulirement
espaces dans le temps. Elles ont t utilises en astronomie (on the periodicity of sunspots, 1906), en mtorologie
(time-seires regression of sea level on weather , 1968), en thorie du signal (Noise in FM receivers, 1963), en biologie
(the autocorrelation curves of schizophrenic brain waves and the power spectrum , 1960), en conomie (time-series
analysis of imports, exports and other economic variables, 1971)...etc.
1.1
De faon gnrale, quand on parle de sries stationnaires, on a en tte une reprsentation de la forme Xt , o t 2 Z,
reprsentant les observations (potentielles) du processus, dont on peut dnir un ensemble dautocovariance (t; s) =
E ([Xt ] [Xs ]) qui ne dpend que la distance entre t et s, (t; s) = (t + h; s + h) pour tout h 2 Z (notion
faible de stationnarit). On demande gnralement cette autocovariance (t; s) de tendre vers 0 quand la dirence
entre t et s tend vers linni : la covariance entre des lments trs loigns dans la srie tend vers 0.
Cette approche, base sur lutilisation des corrlations, correspond lanalyse de type temporelle : elle consiste
tudier les corrlations croises de fonctions de la srie (Xt). Ces mthodes sont gnralement paramtriques de
type moyenne-mobiles (moving average M A) ou autorgressives (AR) - voire les deux (ARM A). Toutes ces mthodes
consistants estimer des paramtres peuvent gnralement tre vus comme des gnralisations de la rgression linaire.
Lautre approche galement utilise est celle base sur ltude des frquences. Cette vision est une gnralisation
des mthodes utilises en analyse de Fourier. Lide est ici dapproximer une fonction analytique par une somme
pondre de fonctions sinus ou cosinus.
Historiquement, ce sont les astonomes qui les premiers ont travaill sur des sries chronologiques. La reproduction
ci-dessous est tir dun manuscrit du X e sicle, reprsentant linclinaison des orbites des plantes en fonction du temps.
Cest en particulier grce ce genre de donnes que Kepler a pu noncer ses lois sur le mouvement des plantes.
Ces visualisations graphiques ont permis, grce aux dirents outils mathmatiques mis en place au XV III e et XIX e
sicles, de mettre en place les premires techniques dtude des sries chronologiques1 , parmi lesquelles, lanalyse
harmonique.
1 En fait, comme le note Bernstein dans Against the Gods (the remarkable story of risk), les grecs ou les hbreux ont observs des
phnomnes cycliques (par exemple), mais ils nont jamais pens faire de la prvision. Il a fallu attendre la Renaissance pour que lave nir
ne soit plus quune question de chance ou un fruit du hasard.Y compris au XV IIIme sicle, prvoir des phnomne futurs pouvait faire
croire une tentative de rivaliser avec les dieux : Halley remarqua que la mme com te fut aperue en 1531, en 1607 et en 1682 (cette
comte avait t observe dail leurs depuis 240 avant J.C.), et il prvoit quon la reverra en 1758 (ce fut eectivement le cas, au grand
moi de toute lEurope, puisque tous les 76 ans, la comte, dite de Halley, arrive en vue de la terre).
1.1.1
Arthur CHARPENTIER
Analyse harmonique
Les astronomes ont t les premiers utiliser lanalyse de Fourier pour des sries chronologiques. Leur but tait de
dtecter des saisonalits caches au sein de leurs donnes. Ainsi, Lagrange a utilis ces mthodes pour dtecter de
la priodicit cache en 1772 et en 1778. Un demi-sicle plus tard, en 1847, Buys et Ballot, dans Les changements
priodiques de tempratures ont propos des mthodes pour tudier la priodicit de donnes astronomiques. Toutefois,
il a fallu attendre 1889 pour que Sir Arthur Shuster introduise le priodogramme, qui constitue la base des mthodes
spectrales danalyse de sries chronologiques.
Lide est la suivante : on recherche un modle sous-jacent de la forme
X
X
Yt =
j cos [! j t j ] + "t =
j cos (! j t) + j sin (! j t) + "t ;
o ("t ) est une suite de variables alatoires indpendantes identiquement distribues, qui correspondront un bruit
blanc (cette notion serait
q longuement dveloppe par la suite).
Le facteur j (ou 2j + 2j ) correspond lamplitude de la j-me composante priodique, et indique le poids de
cette composante au sein de la somme.
Exemple 1 Considrons la srie temporelle ci-dessous gauche. Une fois enlev le bruit, nous obtenons une srie
qui peut tre dcrite comme une somme pondre de fonctions sinusodales
En loccurence, la srie de gauche peut tre vue comme la somme dun bruit et de 4 fonctions sinusodales (damplitudes
j direntes).
par
A partir dun chantillon Y 0 ; :::; Y T 1 , et en considrant les frquences !j = 2j =T , le priodogramme est dni
I (!j ) =
2 X
2 T
2 X
Y t cos (! j ) +
Y t sin (! j )
=
a2 (!j ) + b 2 (!j ) :
T
2
Il est alors possible de montrer que 2I (!j ) =T est un estimateur consistant de 2j (au sens o cet estimateur converge
en probabilit quand le nombre dobservations augmente). Cette convergence t longuement tudie par Yule en
1927.
Exemple 2 En considrant la srie chronologique du nombre de taches solaires
Arthur CHARPENTIER
Wolf a obtenu le priodogramme reprsent ci-dessous ( gauche en frquence !, droite en priode f = 2=!),
et a ainsi pu montrer quil y avait une priodicit de 11 annes dans le cycle solaire. Ce rsultat a t retrouv par la
suite avec davantage de donnes, et un second cycle de lordre de 160 annes a galement t dtect.
En 1924, Whittaker et Robinson ont utilis cette thorie sur la brillance de ltoile T-Ursa Major, observe sur 600
jours, et ont montr que la brillance pouvait tre modlise (presque parfaitement ) laide de 2 fonctions harmoniques,
de priodes respectives 24 et 29 jours.
Si cette thorie a donn de trs bons rsultats en astronomie, son application en conomie a conduit des rsultats
nettement moins concluants. En 1921 et 1922, Beveridge a utilis cette thorie sur le prix du bl (wheat prices and
rainfall in western europe). La srie prsentait tellement de pics quau moins 20 priodicits taient possibles... et
plus encore si lon commenait prendre en compte de facteurs conomiques ou mtorologiques.
Si les phnomnes astronomiques permettent dutiliser cette thorie, cest parce que des cycles parfaitement rguliers
sont observs. Toutefois, cette mtho de sest rvle plus complique mettre en oeuvre en sciences humaines.
1.1.2
Deux articles en 1927 ont ouvert une autre voie : larticle de Yule (on the method of investigating periodicities in
disturbated series with sepcial reference to Wolfers sunspot numbers ) et celui de Slutsky (the summation of random
causes as the source of cyclical processes ).
Yule a introduit dans la littrature les modles autorgressifs, en considrant des modles de la forme
Yt = Y t1 + Y t2 :
Etant donnes deux valeurs initiales, cette suite prsente un comportement saisonnier, fonction des paramtres et
. Yule remarque quen fait, le comportement dpend des racines (complexes) de lquation z2 z = 0, et plus
particulirement de leur position par rapport au disque unit. Si leur module est infrieur 1, alors on observe un
comportement sinusodal amorti. En fait, la forme gnrale des solutions sera
Y t = At cos (!t ) ; lorsque 0 < < 1:
Le modle autorgressif propos par Yule est le suivant
Yt = 1 Yt 1 + 2 Y t2 + "t ;
(1)
o (" t) correspond un bruit blanc : un bruit blanc correspond un processus indpendant (ou, plus faiblement,
non corrl avec son pass). Nanmoins, des hypothses plus fortes doivent parfois tre faites : on veut que ce bruit
soit galement indpendant du pass de la variable Y t , i.e. "t indpendant de Y th pour tout h 1, et on parle alors
dinnovation du processus (Y t ) :
Exemple 3 La srie dne par Y t = 1:8Y t1 0:8Y t2 , reprsente ci dessous gauche, peut tre crite galement
Y t = 2 0:9t cos (4t 1=2), t 2 Z,
Arthur CHARPENTIER
Slutsky a introduit les moyennes mobiles la mme anne que Yule a introduit les processus autorgressifs... mais
son article, crit en 1927 en russe na t traduit quen 1937 en anglais. Pour cela, il a utilis des nombres gnrs par
la lotterie ocielle, et a russit gnrer une srie dcrivant le cycle conomique en Angleterre, de 1855 1877. La
forme gnrale tait la suivante,
Yt = 0 "t + 1 "t1 + ::: + q "tq ;
(2)
o ("t ) est un bruit blanc, correspondant ces nombres gnrs par la lotterie ocielle : on obtient des variables
indpendantes entre elles (cf tables de nombres alatoires), mais surtout indpendantes du cycle conomique. Cette
criture a suggr dlargir la relation (1) sous une forme proche de (2), savoir
0 Y t + 1 Y t1 + ::: + p Y tp = "t :
Les processus introduits par Yule deviendront les processus AR (p) et ceux introduits par Slutsky les processus M A (q).
Lanalogie entre les deux processus sera mme pousse plus loin lorsquil sera montr que les processus AR (p) et M A (q)
sont respectivement des processus M A (1) et AR (1), sous certaines conditions.
1.1.3
Si lapproche spectrale repose sur lutilisation du spectre (ou du priodogramme), lapproche temporelle repose sur
lautocorrlogramme, ou plus gnralement sur lutilisation de la corrlation srielle. Poynting est le premier a introduire cette ide, en 1884, en tudiant la relation entre le mouvement du prix du bl, et les importations de coton et
de soie. Le coecient de corrlation srielle a t dnit par Hooker en 1901, dans une tude sur le taux de mariage
en Angleterre, et lindice du commerce. Etant donnes deux sries temporelles, (Xt) et (Y t), la covariance srielle
est dnie par ck (X; Y ) = cov (Xt ; Y t+k ) et la corrlation srielle sera alors rk (X; Y ) = ck (X; Y ) =c0 (X; Y ).
Le coecient dautocorrlation est alors obtenu en considrant k = corr (Xt ; Xt+k ) = rk (X; X). Les annes 30
ont alors vu lclosion des rsultats de base dans le domaine des sries chronologiques, sous limpulsion de Khintchine,
Cramer, Wold, Kolmogorov, Wiener...etc. Ces auteurs ont dvelopp une thorie des sries temporelles, en considrant
quune srie chronologique est une ralisation dun processus alatoire.
1.1.4
Dans un premier temps, lanalyse harmonique a t gnralise pour passer dune somme de Fourier une intgrale
de Fourier
Z
Yt =
[cos (!t) dA (!) + sin (!t) dB (!)] :
0
Cette simple ide de lissage du priodogramme a permis de contourner les problmes quavait pu observer Beveridge
lorsquil cherchait des priodicits caches dans des disciplines autres que lastronomie.
La synthse entre ces deux branches (la premire travaillant en temps, avec des autocorrlations, et la seconde travaillant sur le spectre de la srie) a t faite dans les annes 30, en parallle aux Etats-Unis par Norbert Wiener (generalised harmonic analysis , 1930) et en Union Sovitique par Khintchine (korrelationstheorie der stationaren stochastichen prozesse, 1934). Leur rsultat est de mettre en avant une relation bijective entre la fonction dautocovariance
dun processus stationnaire, et sa densit spectrale :
Z
+1
1 X
g (!) =
(h) cos (!h) ou (h) =
cos (!h) g (!) d!, o (h) = cov (Xt ; Xth ) :
2
0
h= 1
Et si lanalogie entre autocorrlogramme et densit spectrale existe dun point de vue thorique, il est possible de mettre
en avant le mme genre de relation entre les autocorrlations empiriques et le priodogramme empirique. Les graphiques
ci-dessous reprsentent les variations de lindice CAC 40 en donnes mensuelles, gauche, et le priodogramme associ
en frquence (!) droite,
Variation (%) du CAC 40 - index return - net - mensuel
25%
20%
15%
10%
5%
0%
-5%
-10%
-15%
-20%
11/08/87 23/12/88 07/05/90 19/09/91 31/01/93 15/06/94 28/10/95 11/03/97 24/07/98 06/12/99 19/04/01
/4
/2
3/4
1.2
Arthur CHARPENTIER
Ltude des sries temporelles semble avoir atteint sa maturit au cours des annes 70 o des dveloppements signicatifs sont apparus. En 1965, Cooley et Tukey ont beaucoup aid ltude spectrale des sries grce leur article an
algorithm for the machine calculation of complex Fourier series, introduisant la Fast Fourier Transform (FFT ).
Cet algorithme a permis de calculer rapidement des priodogrammes. A la mme poque, en 1970, Box et Jenkins
ont publi leur ouvrage Time series analysis, forecasting and control , montrant que ltude des sries temporelles
laide de processus de type ARM A (obtenus en associant les critures (1) et (2) des processus AR et M A) pouvait
sappliquer de nombreux domaines, et pouvait tre facilement implmente informatiquement2 .
1.2.1
Les modles ARM A sont un mlange des modles (1) et (2) proposs par Yule et Slutsky. Un processus (Xt ) est un
processus ARM A (p; q) sil existe un bruit blanc ("t ) (cest dire un processus stationnaire tel que " t et "t k soient
indpendants, pour tout k, pour tout t) tel que
Xt = 1 Xt1 + ::: + p Xtp + " t + 1 "t 1 + ::: + q" tq ; pour tout t:
Sous certaines conditions, ces processus sont stationnaires. Comme nous le verrons par la suite, ces processus peuvent
scrire sous la forme
(L) Xt = (L) "t ; o (L) = I 1 L ::: p Lp et (L) = I + 1 L + ::: + qLq ;
L reprsentant loprateur retard, au sens o LXt = Xt 1 , et avec la convention Lp = L Lp1 , soit Lp Xt = Xtp
: la srie (Y t) telle que Y t = Lp Xt est alors la srie (Xt) retarde de p priodes.
Paralllement, on dira quun processus non-stationnaire est intgr dordre 1, si en le direnciant une fois, on
obtient un processus stationnaire : (Xt ) (non-stationnaire) sera dit intgr dordre 1 si le processus (Y t ) dnit
Y t = Xt = Xt Xt1 = (1 L) Xt est stationnaire. On dira, par extension, que (Xt ) est intgr dordre d si (Xt ) est
d1
d
non-stationnaire, ..., (Y t ) o Yt = (1 L)
Xt, est non-stationnaire, et (Zt) o Zt = (1 L) Xt , est stationnaire.
On appelera alors processus ARIM A (p; d; q) un processus (Xt) pouvant se mettre sous la forme
d
Dans les annes 80, des dveloppements ont t apports dans ltude de la non-linarit de certaines sries, et
sur leur modlisation. En 1982, Engle a introduit la classe des modles ARCH (autorgressifs conditionnellement
htroscdastiques 4 ). Ces modles ont t introduits pour palier une observation empirique qui ntait pas prise
2 Sur les mthodes de prvision en conomie, il peut tre intressant de se reporter The past, present and future of macroeconomic
forecasting de Francis Diebold (1997).
3 Cec i nest quune notation : comme nous le verrons par la suite, les processus ARIMA sont un peu plus compliqus que les processus
ARMA puisquil faut prendre en compte des conditions initiales : (Yt) ne suit quasymptotiquement un processus
ARMA (p; q).
4 Pour rappel, un modle conomtrique est dit homoscdatique si la variance des erreurs (centres) E "2 est constante - quelque soit
t
la priode dtude.
Dans le cas contraire, on parlera dhtroscdasticit. Les modles sont ici conditionne llement htroscdatistique car
Arthur CHARPENTIER
en compte par les modles : la volatilit conditionelle dune srie (Y t) na aucune raison dtre constante. Dans les
modles AR (1), la variance conditionnelle de Xt sachant Xt 1 est constante : V (XtjXt1 ) = 2 o V ("t ) = 2
(notion dhomoscdasticit). Engle a cherch un modle dans
variance
conditionnelle de Xt sachant Xt1
lequel la
2
2
dpendrait de Xt 1 , et plus particulirement, V (Xt jXt 1 ) = + Xt1
. Pour cela, il a considr les modles de
la forme
p
2
Xt = "t h t ; o h t = 0 + 1 Xt1
:
Cette classe de modle, appele ARCH (1) a t gnralise sous la forme ARCH (p),
p
2
2
Xt = "t h t ; o ht = 0 + 1 Xt1
+ ::: + p Xt
p:
Cette forme pour h t a permis lanalogie entre les modles AR et les modles ARC H. De plus, cette classe de modles
ARC H a t gnralise de la mme faon que les ARM A gnralisent les AR, en considrant des fonctions h t de la
forme
p
q
X
X
2
ht = 0 +
iXt
+
j " tj ;
i
i=1
j=1
Exemple 4 Le graphique ci-dessous gauche correspond des taux dintert (Xt), et droite, la variation de ces
taux dintrt Y t = Xt Xt 1 ,
20
16
12
-2
-4
0
60
65
70
75
80
85
90
-6
60
95
65
70
75
80
85
90
95
Les longues priodes de fortes volatilit (volatility clustering) sont une des caractristiques des modles ARC H, et cest,
entre autres, pour cela que les modles ARCH ou GARC H sont normment utiliss dans les modles nanciers.
1.2.3
Dautres avances ont t faites sur la mmoire longue de certaines sries. Les processus stationnaires de type AR
ont un autocorrlogramme qui converge vers 0 de faon exponentielle ( (h) = h). Les processus mmoire longue
seront caractriss par une dcroissance de leur autocorrlogramme suivant une fonction puissance ( (h) = h ).
Exemple 5 Par exemple, le graphique ci-dessous gauche correspond au niveau minimum du Nil entre 622 et 1284,
15
14
13
12
11
10
9
700
800
900
1000
1100
1200
NILE
Bien que la srie soit stationnaire, les autocorrlations (h) = cov (Xt ; Xt+h ) sont encore signicativement non-nulles
aprs 60 ans (graphique de droite). Ce type de comportement sera appel mmoire longue.
10
Arthur CHARPENTIER
1.2.4
Enn, dautres dveloppements ont t fait dans ltude des processus multivaris. Si lon se place uniquement en
dimension 2, on comprend que la gnralisation des processus univaris une dimension suprieur est relativement
complique.
(i) les modles V AR - vecteurs autorgressifs - sont une gnralisation des modles AR en dimension n. Si lon
considre par exemple un couple Zt de deux variables (Xt; Y t ) que lon souhaite expliquer par leur pass, on obtient
un modle de la forme
Xt
1 1
Xt1
"t
=
+
, soit Zt = A1 Zt1 + Ut ;
Yt
1 1
Yt 1
t
o la matrice At est compose des coecients autoregressifs usuels (1 et 1 ) mais aussi des notions relatives la
notion de causalit, Xt dpendant de Y t1 , et Yt dpendant de Xt1 .
(ii) la cointgration est une notion relative au comportement des plusieurs variables intgres, et la relation qui
les unit long terme : on considre (Xt) et (Yt ) non-stationnaires, et intgres dordre d, satisfaisant une relation du
type
Xt = + Yt + " t:
Plus formellement, si le vecteur (Zt ) est intgr dordre d, on dira que les sries Zt1 ; Zt2 ; :::; Ztn sont cointgres si et
seulement sil existe une relation linaire non-nulle des composantes qui soient intgres dordre strictement infrieur
d
(iii) le modle ltre de Kalman. Ce mo dle est un cas particulier dune classe plus large de modles, les modles
espace dtats, de la forme
Zt+1 = At Zt + "t
Y t = C tZt + t ;
o (Y t ) est le vecteur que lon tudie, (Z t) est un vecteur alatoire (=tat) inconnu, At et C t sont des matrices
dterministes, et ("t ; t) est un bruit blanc normal. Lide est destimer rcursivement Zt en fonction de Y 0 ; :::; Y t:
Exemple 6 Considrons un entrepreneur amricain, investissant dans dirents pays. An de faire de la prvision
de ses rsultats,
il est ncessaire de prvoir les taux de change des direntes devises : cette prvision doit se faire sur
U SD=F RF
U SD=DM K
le couple rt
; rt
et non pas dvise par devise.
12
4.0
3.5
10
3.0
8
2.5
2.0
1.5
1.0
DMK
FRF
11
Arthur CHARPENTIER
En eet, deux analyses faites en parallle, et indpendement, peuvent aboutir des rsultats impossibles : il serait
incohrent, dans lexemple ci-dessus, de prvoir que le taux de change du Franc va augmenter, et que le taux de change
du Deutsche Mark va baisser.
1.2.5
La thorie conomique inspire de Keynes reposait sur lutilisation de prvisions conditionnelles : sous certaines
hypothses, les prvisions dune ou plusieurs variables taient faites conditionellement des comportements, au sein
de modles structurels. Plus particulirement, ds 1936, Keynes proposait par exemple de lier la consommation C t au
revenu disponible Rt , sous la forme Ct = Rt + : une prvision de Rt permettait de prvoir Ct . Brown avait propos
un modle lgrement dirent ds 1952, en intgrant le fait que les individus ont des habitudes de consommation,
entrainant une inertie importante : Ct = Rt + + C t1 . Ces prvisions structurelles ont toutefois cess de faire
rfrence partir des annes 70.
Les prvisions non-structurelles ont alors pu prendre en compte les dirents cycles observs en conomie (1977 :
Business cycle modeling without pretending to have too much a priori theory de Sargent et Sims) : des prvisions de
sries conomiques peuvent se faire sans ncessairement avoir de modle structurel derrire. Les modles utiliss sont
toutefois relativement anciens puisquils sont inspirs des modles de Slutsky et Yule, tous deux datant de 1927, bass
sur la notion de modle autorgressif. La publication de louvrage de Box et Jenkins en 1970 permettra une avance
rapide avec lutilisation des modles ARM A.
Toutefois, le lacune de la thorie de Box et Jenkins est quelle ne prend pas en compte des eets croiss de
dpendance entre variables. Pour eectuer de la prvision dun ensemble de variables, a priori lies, il convient
deectuer une prvision globale : la thorie des modles V AR (modles autorgressifs vectoriels ) a t introduite
en conomie sous limpulsion de Sims en 1980, qui a travaill sur des systmes dquations o toutes les variables sont
alors endognes (contrairement aux quations structurelles de Keynes). Cette thorie avait toutefois t tudie ds
les annes 70 par Granger par exemple, qui avait travaill sur la notion simple de causalit entre variables.
Toutefois, la prsence dun certain nombre de variables non-stationnaires a pos un certain nombre de problmes
: Granger a alors introduit la notion de cointgration en 1981 : cette notion dit que deux variables X et Y peuvent
suivre une tendance stochastique, mais la dirence (ou le spread ) X Y peut tre stationnaire. Cette notion sera
lorigine des modles tendance commune, permettant de travailler sur des systmes dquations o certaines variables
sont cointgres. En particulier, ds 1978, Hall se posait la question de savoir si la consommation par habitant ntait
pas une martingale, ce qui conduirait crire Ct = Ct 1 + "t o "t est un ala. Nelson et Plosser ont dailleurs not,
en 1982 quun grand nombre de sries macroconomiques taient caractrises par la prsence dune racine unitaire
(cest dire une criture de la forme Ct = C t1 + Xt ). Et cest nallement en 1987 que Campbell a propos un
modle V AR sur la consommation C et le revenu R, puis un modle V AR intgrant dans chaque quation un modle
correction derreur.
Une autre piste qui a t explore la mme poque est celle des modles non-linaires. Cette voie a t ouverte
ds 1982 par Engle, qui introduisi de la dynamique dans la volatilit, laide des modles ARCH. Ces mo dles ont
t trs utiliss en nance, mais aussi pour des modles dination.
Parmi des amliorations apportes dans les annes 90, on peut noter les modles avec cycles, avec rupture de
tendance, changement de rgime...etc. La thorie des modles changement de rgime repose sur lide que derrire
les variables observes existent des variables caches, non observes.
Pour rsumer lhistoire des applications conomiques des sries temporelles, on peut retenir le schma suivant
- annes 20 : macroconomie descriptive : description des cycles (courts = Slutsky, longs = Kondratie )
- annes 50 : dbut de la thorie des sries temporelles, avec comme objectif principal, la prvision
- annes 60 : application en macroconomie, avec des modles structurels : une vingtaine de variables, et 200
observations (maximum )
- annes 70 : thorie de Box et Jenkins, sappuyant sur un logiciel (modle linaire ) : on considre les variables
une une, sur 200 observations (dbut, la mme poque, de la thorie des panels en microconomie : 3000 individus
suivis sur 3 ou 4 priodes)
- annes 80 : en marcronomie, modles multivaris (causalit, cointgration, codpendance). Dbut de lutilisation
des modles de sries temporelles sur donnes nancires : beaucoup de variables, 2000 observations. Dbut des modles
temps continu.
- annes 90 : donnes hautes frquences sur les marchs nanciers (de 4000 plus de 2000000 dobservations).
Des complments peuvent se trouver dans larticle de Chris Chateld (1997) intitul Forecasting in the 1990s .
12
1.2.6
Arthur CHARPENTIER
Remarque sur les processus de comptage ou valeurs dans un espace dtats nis
A retenir 1 Les modles que nous allons tudier dans ce cours sont bass sont bass sur ltude de processus (Xt ) o
les variables observes sur supposes valeurs relles : X1 ; X2 ; :::; Xt; :::.2 R. On observera ainsi des prix,
des variations de prix, des taux, des montants...etc. Des nombres de voyageurs seront, a la rigueur, considrs comme
une variable relle, mais deux cas seront exclus de notre tude, a priori :
(i) les processus de comptage (ex : nombre daccident pour un conducteur lanne t)
(ii) les processus valeurs dans un espace dtat ni
Dans le premier cas, la mthode la plus usuelle pour tuder les processus de comptage est de considrer des modles
de la forme suivante : soit (Y t ) le processus dni par
Yt1
Y t = Ut + "t =
Ui;t + "t o
i=1
Ui;t s B (p)
" t s P () :
(Ui;t) i.i.d.
("t ) i.i.d.
Les processus (Ut ) et ("t ) sont indpendants, conditionellement Y t1 ; Y t2 ; :::; Ut1 ; Ut2 ; :::. De plus, pour tout t,
Ut suit une loi binomiale B (Yt 1 ; p) : On a alors
Y t ~P
, et donc E (Y t ) =
.
1p
1p
De plus, la fonction dautocorrlation est donne par
(h) = cov (Y t; Y th ) =
ph
:
1p
Ce type de processus est appel Poisson AR (1) ou IN AR (1), selon la terminologie de Al-Osh et Alzad (1987) 5 . Pour
information, les paramtres p et dans ce genre de modle sont gnralement estims par maximum de vraisemblance.
McKenzie (1988) 6 a galement montr quil est possible de faire de la prvision laide de ce genre de modles,
puisque la loi de Y T +h conditionnellement au pass observ jusqu la date T vrie
P (Y T + h = xjXT = xT ) =
minfx; xT g
s=0
xT
s
xT s
s (1 )
1
(x s)!
1
1 p
1
exp
; o = ph ;
1p
1 ph
1 ph
et V (Y T +h jXT = x T ) = p h 1 ph xT +
:
1p
1p
Dans le cas o la loi de Poisson nest pas la plus adapt, McKenzie (1986) 7 a propos dautres modles pour avoir,
marginalement, une loi gomtrique, ou une loi binomiale ngative.
Dans le second cas, le plus simple est de se ramerner la thorie des chanes de Markov.
1.2.7
A retenir 2 Les modles que nous allons tudier dans ce cours sont bass sont bass sur ltude de processus (Xt ),
observs des dates rgulires : X1 ; X2 ; :::; Xt ; :::. Il peut sagir, par exemple, de la version discrre dun processus
en temps continu : on observe Xt1 ; Xt2 ; :::; Xtn ; ::: o les dates ti sont telles que ti ti1 soit constante pour tout i.
Dans le cas des donnes hautes frquences, lanalyse est relativement dirente, puisque laspect temporel doit tre
pris en compte. Par exemple, pour tudier la liquidit des marchs nanciers, on considre les triplets de variables
suivants : (T i; V i; P i), o T i est la date de la ime transaction, V i le volume chang lors de la transaction, et Pi le prix
de cette transaction. Cette tude permet de changer lchelle des temps : on ne considre plus le temps calendaire
5 AL-OSH,M.A. & ALZAID,A. (1987). First-order interger-valued autoregressive (IN AR (1)) process. Journal of Time Series Analysis.
8 261-275.
6 McKENZIE,E. (1988). Some ARMA models for dependent seque nces of Poisson counts. Advances in Applied Probability. 20 822-835.
7 McKENZIE,E. (1986). Autoregressive moving-average processes with negative-binomial and geometric marginal distribution. Advances
in Applied Probability. 18 679-705.
13
Arthur CHARPENTIER
mais le temps des transactions. Et comme le montre le graphique ci-dessous, ces deux temps peuvent tre relativement
dirents
Obs
868
869
870
871
872
873
874
875
876
877
878
879
880
811
Time
10:00:04
10:00:06
10:00:07
10:00:08
10:00:13
10:00:15
10:00:18
10:00:19
10:00:22
10:00:23
10:00:27
10:00:28
10:00:29
10:00:32
PRICE
1378.50
1379.75
1379.50
1379.50
1378.25
1379.00
1379.75
1378.25
1380.25
1379.50
1379.50
1380.25
1380.50
1375.75
VOL
500
1000
800
1250
300
1500
500
750
1250
1500
1750
250
500
500
En eet, il y a trois fois plus de transactions sur un march tt le matin qu lheure du djeuner : le temps entre
deux transactions sera alors, en moyenne, trois fois plus long 13 heures 30 qu 9 heures 45. Cette dirence qui
existe entre les heures de la journe peut se retrouver entre les jours de la semaine (il y a ainsi, en moyenne, 10% de
transaction en plus le mardi, compar au vendredi ou au lundi), ou au mois (il y a, par jour ouvr, prs de deux fois
plus de transactions en septembre quen fvrier ).
La notion de base pour tudier ce genre de donnes est la thorie des modles de dures. On considre (Ti ), la
suite des dates de transaction, et i la date coule entre la ime et la i 1me transaction : i = T i T i1 .
Toutefois, dans ce cours, nous ne traiterons pas de ces aspects, mais nous considrerons plutt des agrgations, ou
des observations ponctuelles : P t sera le prix observ la date t (par exemple tous les jours, ou toutes les heures) et
V t le volume total chang pendant la priode (en une journe, ou une heure). Toutefois, il est noter que mme
dans ce cas, o les volumes de donnes sont trs importants, ltude peut savrer plus complexe que dans le cas o
lon considre des sries conomiques observes 200 dates, en particulier cause de la prsence de multiples cycles
(un cycle dune journe sera observe sur des donnes horaires par exemple, puis des cycles mensuels, ou trimestriels
(publication de comptes), ou encore annuels...).
1.3
Deux types de processus sont utiliss dans la thorie des sries stationnaires
(i) les processus stationnaires
(ii) les processus markoviens
1.3.1
La stationnarit joue un rle central dans la thorie des processus, car elle remplace (de faon naturelle) lhypothse
dobservation i.i.d. en statistique. Deux notions sont gnralement considres. La premire notion de stationnarit
peut se dnir de faon forte par une stabilit en loi du processus : quel que soit n, t1 ; :::; tn et h, on a lgalit entre
les lois jointes
L (Y t1 ; :::; Y tn ) = L (Y t1+h ; :::; Y tn+h )
Cette dnition toutefois peut tre aaiblie : le processus est dit stationnaire au second ordre si
- la moyenne du processus est constante : E (Yt ) = m pour tout t 2 Z
- les autocovariances ne dpendent que de la dirence entre les observations : cov (Xt ; Xs) = (jt sj)
Cette dernire proprit implique en particulier que la variance de Y t est constante : V (Y t) = 2 .
Remarque 2 Si lon considre les lois marginales ( t x) du processus, la stationnarit (forte) signie une stabilit
de la loi marginale : la loi de Y t et la loi de Y s sont identiques pour t 6= s. La stationnarit du second ordre correspond
uniquement une stabilit des deux premiers moments : E (Y t ) = E (Y s ) et V (Y t) = V (Y s) pour t 6= s. Dans ce cas,
rien nempche davoir des skewness et des kurtosis variables en fonction du temps. Le graphique ci-dessous gauche
14
Arthur CHARPENTIER
correspond une stabilit au sens fort, et droite, une stationnarit au second ordre,
En particulier pour la stationnarit au sens fort, les moments dordre k, pour tout k 2 N, sont constants.
Remarque 3 Si lon considre la dpendance temporelle, la stationnarit du second ordre suppose uniquement une
stabilit de la corrlation (moment dordre 2) : cov (Xt ; Xt+h ) = cov (Xs; Xs+h ). La stationnarit au sens fort est
beaucoup plus forte que cette condition sur le moment dordre 2, puisquelle suppose une stabilit de toutes les lois
jointes8 : en particulier, cette condition implique lgalit en loi des couples (Xt ; Xt+h ) et (Xs ; Xs+h ). Dans lexemple
ci-dessous, nous avons considr deux processus dont les lois marginales reste constantes (Xt s N (0; 1) pour tout t),
avec une stationnarit au sens fort gauche (en particulier la loi (Xt; Xt+h ) est gale la loi de (Xs ; Xs+h )), et
une stationnarit au second ordre droite (en particulier, on a uniquement galit des covariances cov (Xt ; Xt +h ) =
cov (Xs ; Xs+h ))
La notion de stationnarit au second ordre, qui sera utilise dans la premire partie de ce cours, suppose uniquement
une stabilit des deux premiers moments :
- la stationnarit au second ordre nempche pas une variation des moments dordres plus levs (asymtrie de la
loi ou paisseur des queue fonctions du temps),
- la stabilit de la structure de dpendence entre Xt et Xt+ h se rsume une stabilit du coecient de corrlation
(ou de covariance).
8 Rappel : soient X et X de mme loi, Y et Y de m me loi, tels que cov (X ; Y ) = cov (X ; Y ), alors on na pas galit des lois
1
2
1
2
1
1
2 2
jointes : L(X1 ; Y1 ) 6= L (X2 ; Y2). En particulier, si X et Y suivent des lois normales N X ; 2X et N Y ; 2Y avec corr (X; Y ) = ,
alors on na pas ncessaire
X
X
2X
X Y
sN
;
2
Y
Y
X Y
Y
Un vecteur gaussien nest pas uniquement un vecteur dont les lois marginales sont uniformes (cf cours de probabilit).
15
Arthur CHARPENTIER
Remarque 4 Dans la pratique, on retrouve parfois des courbes aux allures sensiblement direntes,
8
20
15
10
0
0
-1
-5
-2
0
-10
-3
-4
-2
100
200
300
400
500
100
200
300
400
500
-15
100
200
300
400
500
La srie (Xt ) gauche est (ou tout du moins semble) stationnaire, la srie (Zt) au centre est dite non stationnaire
en moyenne, et la srie (Yt ) droite est dite non stationnaire en variance9 .
Lexemple le plus simple de processus stationnaire est le bruit blanc. Toutefois, de la mme faon quil est possible
de dnir deux notions de stationnarit, il existe deux sorte de bruit blanc. Le processus ("t ) est un bruit blanc
faible sil existe 2 telle que
8
< E ("t ) = 0 pour
tout t
V ("t ) = E "2t = 2 pour tout t
:
cov (" t; "t h ) = E ("t "th ) = 0 pour tout t; et pour tout h 6= 0:
Aucune hypothse dindpendance nest faite dans cette dnition. Les variables aux direntes dates sont uniquement
non corrles (ce qui fera une dirence importante, comme nous le verrons dans la partie sur les modles ARCH).
Cette hypothse dindpendance permet toutefois de dnir un bruit blanc fort, i.e.
8
< E ("t ) = 0 et V (" t) = E " 2t = 2 (nie) pour tout t
L (" t) = L ("th ) pour tout t; h
:
"t et "th sont indpendantes pour tout t; et pour tout h 6= 0:
1.3.2
La thorie sur les chanes de Markov (en temps discret) est galement un lment important.
Cette proprit correspond lide que lon souhaite rsumer linformation contenue dans les variables passes du
processus par un nombre ni de variables (les variables dtat). Dans le cas le plus simple, on souhaite que les variables
dtat soient des valeurs retardes du processus : toute linformation est contenue dans les k valeurs les plus rcentes
L (X tjXt1 ; Xt2 ; Xt 3 ; :::) = L (Xt jXt 1 ; :::; Xt k ) ;
qui peut se rcrire, lordre 1,
d
Yt = Xt 1 = si 6= 0 (sinon = log Xt )
16
Arthur CHARPENTIER
Remarque 5 Nous ne nous intresserons, dans ce cours, que dans le cas o lespace dtat est R, cest dire que nous
ne traiterons pas le cas des chanes de Markov (o Xt prend ces valeurs dans un espace dtat ni ou dnombrable)
espace dtat fi1 ; :::; i n ; :::g
espace dtat R
t discret
Cours sur les Chanes de Markov
Cours de Sries Temporelles
t continu
Cours de Calcul Stochastique
Les chanes de Markov correspondent par exemple au cas o Xt est valeurs dans un ensemble ni (fi 1 ; :::; i n ; :::g)
o dnombrable (N) : par exemple les variables dichotomiques, o Xt vaut soit 0, soit 1:. Le calcul stochastique
correspond au mouvement brownien, et aux processus de diusion obtenus partir du mouvement brownien. Le cas
o le temps est continu et o les variables sont valeurs dans N (par exemple) correspond aux processus de comptage,
aux processus de Poisson, la thorie des les dattente...etc.
1.4
1.4.1
Le but est ici de dterminer les direntes composantes dune srie (Xt ), en particulier, obtenir la srie corrige
des variations saisonnires (mthodes de dsaisonnalisation ). Pour les sries stationnaires, on peut aussi chercher
modliser la srie laide dun modle ARM A, par exemple dans le but de faire de la prvision.
1.4.2
Prvision
Sur la base dobservation X1 ; :::; XT le but est de faire une prvision, la date T , de la ralisation en T + h, note
b T (h). Une premire mthode est le lissage exponentiel, bas sur une formule de rcurrence de la forme X
b T (1) =
X
b
Xt + (1 ) XT 1 (h), o , compris entre 0 et 1, est gnralement choisi de faon minimiser la somme des carrs
des erreurs de prvision.
Dans le cas des modles ARM A, de nombreuses relations existent an de faire de la prvision, avec un intervalle
de conance. Nous verrons comment ces intervalles de conance sont modis si une modlisation ARC H est retenue,
ou du type mmoire longue.
Exemple 7 Quelques exemples de prvisions,
En 1977, Ken Olson, prsident du conseil dadministration, PDG et fondateur de la socit Digital Equipment
armait qu il ny a aucune raison de vouloir possder un ordinateur la maison .
Thomas Watson, prsident dIBM, prdisait en 1943 : Je crois que le march mondial pourrait peut-tre accueillir
cinq ordinateurs.
Une note de service de la Western Union qui armait, en 1876 : Le tlphone a bien trop de dfauts et de
lacunes pour que nous le considrions srieusement comme un moyen de communication. Cet appareil na pour ainsi
dire aucune valeur nos yeux.
En 1895, Lord William Thomson Kelvin, prsident de la Socit Royale des Sciences armait : Il est impossible
dimaginer des marchines volantes plus lourdes que lair.
Le concept est intressant et bien formul, mais pour esprer avoir une note meilleure quun C, encore faudraitil que lide soit ralisable!. dclara un professeur de management de luniversit de Yale en rponse la proposition
de Fred Smith de crer un service able de livraison de nuit (Smith fonda ensuite Federal Express Corp.)
Quelques jours avant le dbut de la crise, en 1929, Irving Fisher, Professeur d conomie lUniversit de Yale
dclarait Le march de la Bourse semble avoir atteint un haut plateau permanent.
Labdomen, la poitrine et le cerveau sont jamais interdits lintrusion de la connaissance et de la chirurgie
humaine. selon Sir John Eric Ericksen, chirurgien Anglais, mdecin personnel de la Reine Victoria, 1873.
1.4.3
Filtrage
Le lissage consiste transformer une srie de faon dtecter (pour liminer ou au contraire conserver ) certaines
caractrisques (composante saisonnire, points abrants...). Cette mthode permet galement de dtecter des ruptures
au sein dune srie.
1.5
Conseils bibliographiques
17
Arthur CHARPENTIER
DROESBEKE,J.J., FICHET,B. & TASSI,P. (1995). Sries chronologiques - thorie et pratique des modles
ARIMA, Economica
GOURIEROUX,C. & MONFORT,A. (1995) Sries temporelles et modles dynamiques, Economica
Des complments dinformations sur dirents points abords peuvent tre trouvs galement dans
BOURBONNAIS,R. & TERRAZA,M. (1998). Analyse des sries temporelles en conomie, PUF
BOX,G. & JENKINS,G.. (1970). Time Series analysis : forecasting and control , Holden-Day [519:5 BOX]
BROCKWELL, P.J. (1987) Time series : theory and methods Springer-Verlag
COUTROT, B & DROESBEKE,J.J. (1995) Les Mthodes de prvision Presses Universitaires de France (Que
sais-je ? 2157)
DACUNHA-CASTELLE,D. & DUFLO,M. (1985). Probabilits et Statistiques - Tome 2 : Problmes temps
mobile Masson
HAMILTON,J. (1994). Time series analysis , Princeton University Press [519:5 HAM ]
HARVEY,A.C. (1993) Time Series Models Cambridge: MIT Press [519:5 HAR]
HYLLEBERG S. (1992), Modeling Seasonality Oxford University Press [330:115 M OD]
LUTKEPOHL,H. (1991). Introduction to multiple time series analysis Springer-Verlag
MELARD, G. (1990) Mthodes de prvision court terme . Ellipses
NERLOVE M, GRETHER D.M, CARVALHO J.L. (1995). Analysis of Economic Time Series Academic Press.
PINDYCK,R.S & RUBINFELD,L.D. (1984) Econometric models and economic forecasts McGraw-Hill [330:115 P IN
Des complments et des documents au format pdf sont tlchargeables sur le site internet,
http : ==www:crest:fr=pageperso=lfa=charpent=charpent:htm
avec la version pdf de ce polycopis, des liens vers des notes de cours disponibles sur internet, et un certain nombre
de bases de donnes qui peuvent tre utilises en guise dexercices.
La nature semblait avoir sagement pourvu ce que les sottises des hommes fussent passagres, et les livres les
immortalisent. (Montesquieu, Les Lettres Persanes). Malgr les nombreuses relectures, il est possible quun certain
nombre de coquilles, voire derreurs persistent. Merci de men tenir inform....
18
Arthur CHARPENTIER
La pratique de lanalyse des sries temporelles vise modliser une (ou plusieurs, comme nous le developperons en
n de cours) srie dobservations x1 ; :::; x n par un processus alatoire temps discret, cest dire une suite (Xn )
de variables alatoires dnies sur un espace de probabilit (-; A; P), tel que lon puisse penser que la srie observe
soit une ralisation du processus. En dautres termes, x1 ; :::; x n doit tre obtenu comme tirage alatoire de X1 ; :::; Xn
suivant la probabilit P, cest dire que se ralise un vnement ! tel que x i = Xi (!) pour i = 1; :::; n. Le but
est alors, tant donne une tra jectoire x 1 ; :::; xn de reconstruire la dynamique du modle sous-jacent, cest dire de
comprendre la liaison entre Xi et son pass Xi1 ; Xi2 ; :::; X1 .
2.1
Un processus ( temps discret ) sur un espace (-; A; P) est une suite de variables alatoires (Xt (!) ; t 2 N), valeurs
dans un espace mesur (E; E) (dans le cas qui nous intresse, E = R). On peut considrer le processus comme la
variable alatoire X (t; !), dni sur lespace produit - N muni de la tribu produit.
Dnition 1 Une ltration fFt ; t 2 Ng est la donne dune suite croissante (au sens de linclusion) de sous-tribus
de A. On posera F 1 = sup fFt ; t 2 Ng : il sagit de la plus petit tribu qui contienne toutes les Ft :
La ltration la plus usuelle est obtenue de la faon suivante : on observe une suite (Xt) de variables alatoires,
et on considre Ft = (X0 ; :::; Xt), qui est la plus petite tribu
2
2
E [Xt+h Xt] =
E Xt+i
:
i=1
2.2
Dnition 3 Le processus fXt ; t 2 Ng est une chane de Markov dordre 1 si et seulement si, pour tout t,
L (Xt jXt 1 ; Xt 2 ; Xt3 ; :::) = L (Xt jXt1 ) :
Autrement dit, compte tenu de la tra jectoire (XT 1 = xT 1 ; XT 2 = xT 2 ; :::) dun processus (Xt ), la loi de XT
linstant T est entirement dtermine par le fait que la valeur en T 1 soit xT 1 .
19
Arthur CHARPENTIER
Thorme 1 Le processus fXt ; t 2 Ng est une chane de Markov dordre 1 si et seulement sil existe une fonction
g (:) mesurable et un processus "t tel que Xt = g (Xt1 ; "t ) - avec ("t ) une suite de variables alatoires, indpendantes
et de mme loi.
Lorsque lapplication g ne dpend par de t, la chane de Markov est dite homogne.
Exemple 8 Les processus AR (1) : Xt = + Xt1 + "t; o ("t ) est un bruit blanc, sont markoviens.
Exemple 9 En particulier, les processus de la forme Xt = Xt1 + "t correspond une marche alatoire :
- si X0 2 Z et P (" t = 1) = P ("t = +1) = 1=2, on obtient la marche alatoire symtrique sur Z (jeu du pile ou
face),
- si "t suit une loi normale centre, on obtient une discrtisation du mouvement brownien.
2.3
Dnition 4 Un processus
(Xt ) est stationnaire au second ordre si
(i) pour tout t, E Xt2 < +1,
(ii) pour tout t, E (Xt ) = , constante indpendante de t,
(iii) pour tout t et pour tout h, cov (Xt ; Xt+h ) = E ([Xt ] [Xt+h ]) = (h), indpendante de t.
Dnition 5 La fonction (:) sera appele fonction dautocovariance
On peut montrer aisment que (:) est une fonction paire, au sens o (h) = (h) pour tout h, et que la variance
V (Xt ) est constante, indpendante de t; V (Xt ) = (0) :
Proprit
1 Si (Xt ; t 2 Z) est un processus stationnaire, et si (ai; i 2 Z) est une suite de rels absolument convergente,
P
i.e.
i2Z jai j < +1; alors, le processus (Y t) dni par
X
Yt =
ai Xti; pour tout t 2 Z,
i2 Z
qui peut tre vu simplement comme une gnralisation de la loi de grand nombre.
20
Arthur CHARPENTIER
La notion de stationnarit (faible, ou au second ordre) se dnie par une invariance des moments dordre 1 et
2 au cours du temps. Par opposition, on dira quune srie est non-stationnaire si elle nest pas stationnaire. On
peut noter que la classe des processus non-stationnaire est alors relativement vaste, et surtout htrogne : il existe
direntes sources de non-stationnarit, et chaque origine de non-stationnarit est associe une mthode propre de
stationnarisation. Nelson et Plosser ont retenu, en 1982, deux classes de processus non-stationnaires : les processus
T S (trend stationary ) et les processus DS (dierence stationary ) Les premiers correspondent une non-stationnarit
de type dterministe, alors que les seconds correspondent une non-stationnarit de type stochastique.
Dnition 9 (Xt) est un processus non-stationnaire TS sil peut scrire sous la forme Xt = f (t) + Zt o f (t)
est une fonction (dterministe) du temps, et (Zt) est un processus stationnaire.
Lexemple le plus simple est celui de la tendance linaire bruite : Xt = + t + "t . Ce processus est en eet
non-stationnaire puisque son esprance vaut + t la date t, et donc, dpend de t. Une des proprits importantes
de ce type de processus est quil ny a pas persistance des chocs : linuence dun choc subit un instant aura
tendance sestomper au cours du temps, et la variable rejoint alors sa dynamique de long-terme, dtermine par
f (t).
Dnition 10 (Xt ) est un processus non-stationnaire DS - ou intgr dordre d, not I (d) - si le processus obtenu
d
aprs d direnciation est stationnaire : Zt = d Xt = (1 L) Xt est stationnaire
d
Comme nous le verrons par la suite, le fait quil faille direncier d fois, cest dire multplier par (1 L) , polynme
de loprateur retard L, revient chercher la prsence de racines unit : si le processus (L) Xt est stationnaire,
si 1 est une racine du polynme , alors (Xt) sera non-stationnaire. Cest pour cela que la plupart des tests de
non-stationnarit sont des tests de dtection de racine unit.
2.4
2.4.1
Dnition 11 Pour une srie stationnaire (Xt) ; on dnit la fonction dautocovariance, pour tout t, par
h 7! X (h) = cov (Xt ; Xth ) = E (Xt Xth ) E (Xt ) :E (Xt h ) :
Dnition 12 Pour une srie stationnaire (Xt) ; on dnit la fonction dautocorrlation, pour tout t, par
cov (Xt; Xt h )
(h)
p
= X
:
X (0)
V (Xt ) V (Xth )
Dnition 13 Un processus ("t ) sera appel bruit blanc (faible) sil est stationnaire, centr et non-autocorrl :
E ("t ) = 0; V ("t ) = 2 et " (h) = 0 pour h 6= 0:
On parlera de bruit blanc fort sil est indpendant et identiquement distribu (i:i:d:) : la notion dindpendance
est plus forte que la nullit des autocorrlations, et le fait que le processus soit identiquement distribu est plus fort
que la stabilit des deux premiers moments.
Exemple 10 Processus M A (1) : Xt = "t + "t1 o ("t ) est un bruit blanc centr de variance 2 ,
8
< (0) = 1 + 2 2
, soit (1) =
et (h) = 0 pour jhj 2:
(1) = 2
2
:
1
+
(h) = 0 si jhj 2
2.4.2
Densit spectrale
Lide ici est que les coecients dautocovariance dune srie stationnaire correspondent aux coecients de Fourier
dune mesure positive, appele mesure spectrale du processus. Il est possible de montrer que cette mesure spectrale
admet une densit, dite spectrale, par rapport la mesure de Lebesgue sur [; ], que nous noterons fX . Dans le cas
o la srie des autocovariance est absolument convergente, la densit spectrale est alors dnie comme la transforme
de Fourier des coecients dautocovariance (dans le cas o la somme des jX (h)j tend vers linni, la somme est
prendre au sens de L2 ) : comme lont montr Cramr, Kolmogorov, ou encore Wiener, on les rsultats suivants,
21
Arthur CHARPENTIER
(i) la suite des fonctions dautocovariance X (h) dun processus stationnaire peut tre crit sous la forme
Z +
X (h) =
exp (i!h) dFX (!) ;
2
(= constante).
2
Proprit 3 Si la densit spectrale dune srie (Zt ) est constante, alors (Z t) est un bruit blanc.
f " (!) =
Preuve. En eet
Z (h) =
Z
|
exp (i!h) d!
{z
}
=0 sau f si h=0
Cette nullit de la fonction dautocorrlation est donc une charactristique du bruit blanc.
Proprit 4 Si Xt est une moyenne mobile,
X
Xt =
ak "tk , o ("t ) est un bruit blanc BB 0; 2 ;
avec
k2Z
i!j
fY (!) = f X (!) :
j e :
j2Z
j2Z
2
Exemple 12 Yt = Xt Xt 1 o jj < 1, alors f Y (!) = f X (!) 1 + e i! .
Remarque 9 La densit spectrale dun processus peut tre estime sous SAS, laide de la procdure spectra. Nous
allons reprendre ici lexemple de taches solaires observe de 1770 1869, tel que lavait fait Wolfer
22
Arthur CHARPENTIER
avec, respectivement, en haut, le priodogramme (P) en fonction de la frquence ( gauche), et de la priode ( droite),
et en bas, la densit spectrale estime (S) en fonction de la frquence ( gauche), et de la priode ( droite). Sur
ces donnes, on observe un pic correspondant une priodicit de 11 ans. Le graphique ci-dessous 10 correspond au
priodogramme obtenu sur direntes priodes dobservation,
2.4.3
T
1 X
=
X t:
T t=1
23
Arthur CHARPENTIER
Th
1 X
Xt X T Xth X T ;
T h t=1
bT (h)
:
T (0)
b
T (h) =
b
Si ces estimateurs sont biaiss ( distance nie), ils sont malgr tout asymptotiquement sans biais.
Proprit 5 Les moments empiriques convergent vers les moments thoriques : X T ! m, b
T (h) ! (h) et b
T (h) !
(h) quand T ! 1.
En fait, comme nous le verrons par la suite, nous avons mme normalit asymptotique des moments empiriques.
Remarque 10 Bien que ces fonctions soient dnies pour tout h tel que T < h < T , la fonction dautocovariance
empirique fournit un estimateur trs pauvre de (h) pour des valeurs h proches de n. A titre indicatif, Box et Jenkins
recommandent de nutiliser ces quantits que si T > 50 et h T =4. In pratice, to obtain usefull estimate of the
autocorrelation function, we need at least 50 obsevations, and the estimated autocorrelations rk could be calculated for
k = 1; :::; K where K was not larger than, say, T =4.
An, par exemple, de faire de la selection de modles, il est important de pouvoir dire si les autocovariances
empiriques sont signicativement non nulles. Il est alors possible dutiliser le rsultat suivant
P
Proprit 6 Si (Xt ) est un processus linaire, au sens o il satisfait Xt =
j2Z j "t j o ("t) est une suite de
4
2 2
variables i.i.d. centres, telle que E "t = E "t < +1, o les j dnissent une srie absolument convergente, et
o est une constante positive, alors, on a la formule dite de Bartlett,
lim T cov (b
T (h) ; b
T (k)) = (h) (k) +
T !1
+1
X
i=1
(i) (i + k h) + (i + k) (i h) .
j2Z
2
variables i.i.d. centres, telle que E "t = E "t
< +1, et "t s N 0; , et o les j dnissent une srie
absolument convergente, et o est une constante positive, alors, on a, pour tout p 0,
0
1
00
1
1
T (0)
b
(0)
p B
C
BB . C
C
..
n@
A ! N @@ .. A ; V A ;
.
T (p)
b
(p)
:
h;k=0;:::; p
Le priodogramme est observations est dni comme le module au carr de la transform de Fourier discrte des
observations, i.e.
T
2
1 X
1 X
IT (x) =
Xt exp (itx) =
T (h) exp (i!x) :
b
2T
2
t=1
h2Z
Le plus souvent, on estime le priodogramme aux frquences de Fourier, i.e. x k = 2k=T pour k = 1; :::; T , not IT ;k .
Sous des hypothses de rgularit de la densit spectrale, le priodogramme est un estimateur asymptotiquement sans
biais de la densit spectrale. Mais il nest pas consistant (on ne peut estimer que les T premier (h) intervenant dans
la dnition du priodogramme partir de T observations ).
24
Arthur CHARPENTIER
Exemple 13 Dans le cas dun processus i.i.d. gaussien, valu aux frquences de Fourierde ]0; [ forme une suite de
variables indpendantes, et identiquement distribues, suivant une loi du 2 , centr, deux degrs de libert.
Exemple 14 Pour les processus dit mmoire longue, la densit spectrale sexprime sous la forme
f (x) = j1 exp (ix)j 2d f (x) ;
o f est une fonction positive. Les valeurs du priodogramme sont asymptotiquement biaises, et asymptotiquement
corrles. Le fait que cette fonction ait un ple (ici en 0) est dailleurs une caractrisation de la mmoire longue.
Cette densit spectrale permet dobtenir un grand nombre de rsultat. Par exemple, il est possible destimer
directement la variance du processus dinnovation11 , en utilisant la formule dite de Kolmogorov,
Z 2
1
2
= 2 exp
log fX (x) dx :
2 0
Un estimateur de cette variance est alors
b2 =
T
1 X
log IT ;k :
T t=1
Dans le cas des processus mmoire longue, la densit spectrale est de la forme f X (x) s Cx 2d . Un estimateur non
paramtrique de d peut tre obtenu en rgressant localement le log-priodogramme dans un voisinage de la frquence
nulle. On appelle alors estimateur GPH
m
! 1 m
mT
T
T
X
X
2 X
2
b
d=
LT ; k
LT ;n : log L T ;k o LT ; k = 2 log jx k j +
log IT ;j ;
mT
k=1
k=0
j=1
2.5
Dnition 15 Un mouvement brownien Wt est un processus stochastique, dnit pour t 2 R +, tel que W 0 = 0 et
tel que, quelles que soient lesdates t1 < t2 < ::: < tk , les variations
du processus Wt2 Wt1 ; Wt3 Wt2 ; :::; W tk Wtk1
sont indpendantes, avec E Wti Wtj = 0 et V Wti W tj = 2 (ti tj ). De plus, les variations du processus
entre deux dates ti et tj (telles que ti < tj ) sont normalement distribues W ti W tj s N 0; 2 (ti tj ) .
Dans le cas o 2 = 1, on parlera de mouvement brownien standard. De plus, W t est continu en t, sans tre
drivable : bien que le processus soit continu, les variations ne sont pas bornes. Pour visualiser un mouvement browien
il sut de considrer une marche alatoire continue : on considre une marche alatoire discrte (Xt = Xt1 + "t o
"t s N (0; 1)), pour laquelle on diminue les intervalles temporels entre deux dates conscutives,
50
40
30
20
10
0
-10
100
200
300
400
500
600
700
DX
Proprit 8 Soit X1 ; X2 ; :::; XT un chantillon i:i:d:, centr, de variance 2 . Soit [:] la partie entire au sens o
[x] x < [x] + 1 et [x] 2 Z, alors pour tout 0 < r < 1,
[rT ]
1 1 Cette
1
L
qp
Xt ! N 0; 2
[rT ] t=1
25
Arthur CHARPENTIER
( r)
Ce rsultat est parfois appel Thorme Centrale Limite Fonctionnel . Notons X T la variable construite partir
des [rT ] premires observations par
[r T ]
1 X
(r )
XT =
X t;
T t=1
du rsultat prcdant, il en dcoule que
p
p (r2)
(r1)
T XT XT
(r )
TXT L
! N (0; r) ou encore
! N (0; r2 r1 ) ;
p
(:)
pour r1 < r2 . Ceci permet de montrer que la suite des T :X T = est asymptotiquement distribue comme un
mouvement brownien, au sens o
p
(:)
T XT L
! W:
Ce type de rsultat est alors trs utile pour obtenir des rsultats analytiques sur les processus intgrs.
Considrons par exemple, une marche alatoire dnie par Xt = Xt1 + "t o "t est un bruit blanc de variance 2 ,
(r)
soit Xt = "1 + "2 + ::: + "t pour tout t, avec la convention X0 = 0: Notons X T la variable construite partir des [rT ]
premires observations par
(r )
X T ==
[rT ]
1 X
1
i 1
i
Xt = (" 1 + "2 + ::: + " i) ; o
r< ;
T t=1
T
T
T
on a alors
p Z
T
1
0
=T
3=2
T
X
x t1 ;
t=1
(r)
X T dr
(:) L
T
X
t=1
T !1
Xt1 !
W s ds:
T
X
2 T !1
(Xt1 )
t=1
! 2
(W s) ds:
0
Ces rsultats seront utiliss en particulier pour la dtermination des proprits asymptotiques des estimateurs obtenus
partir de sries intgres.
La construction de lintgrale stochastique sobtient dailleurs comme passage la limite sur des processus
temps discret12 . Considrons un dcoupage en T subdivisions de lintervalle de temps [0; 1] : soit st = t=T pour
t = 0; 1; :::; T . Considrons ici (Xst ), not (Y t ), un processus dni pour t = 0; 1; :::; T . On appelera variation
quadratique de la srie chronologique (Y ) la srie chronologique dnie par
< Y >t =
t
X
j= 1
[Y j Y j 1 ] pour t = 0; 1; :::; T
La variation quadratique du mouvement bronwien standard (W t) est obtenu comme passage la limite
< W > t= lim
T !1
1 2 De
t
X
j=1
[Wj W j1 ]2 = t
faon plus simple, lintgrale dune fonction alatoire par rapport une mesure dterministe de dnie dj comme une limite :
soit At un processus en temps continu, et considrons un dcoupage en T subdivisions de lintervalle de temps [0; 1] : soit s = s=T pour
s = 0; 1; :::; T . Considrons ici X s, not Ys, le processus dni pour s = 0; 1; :::; T , par Ys = At I (T t s < T (t + 1)), alors
Z t
s
1 X
As ds = lim
Ys
T !1 T
0
j =1
26
Arthur CHARPENTIER
XsdW s =
t
X
i=1
Xi [W j Wj 1 ]
o (Xs ) est un processus discret : Xs = Xi pour (i 1) =T s < i=T , puis par passage la limite, stend aux
processus en temps continu.
Aussi, tous les modles nanciers en temps continu ont un analogue en temps discret. Mais si les modles en temps
continu sont autant utiliss, cest principalement parce que le calcul stochastique et la formule dIto permet danalyser
les problmes de faon lgante et relativement rapide.
Un processus suivant lquation stochastique
Z t
Z t
dY t = f (t; Y t ) dt + g (t; Y t) dWt ou Yt = Y0 +
f (s; Y s ) ds +
g (s; Y s) dWs
0
peut tre assimil un processus en temps discret vriant lquation (approximation dEuler )
Yt+1 Yt = f (t; Yt ) + g (t; Y t ) [Wt+ 1 Wt ] = f (t; Y t ) + g (t; Y t ) "t
o ("t) est un bruit blanc gaussien, de variance 1.
Remarque 11 Rciproquement, en reprenant un exemple de Nelson (1990), un modle temps discret de type
GARCH (1; 1) M (multivari), dni par
Y t = Y t1 + f 2t + t "t
2t+1 = ! + 2t ( + " t)
o ("t ) est un bruit blanc gaussien, est lanalogue en temps discret de lquation de diusion
dYt = f 2t dt + t dW t1
d 2t = ! 2t dt + 2t dW t2
27
Arthur CHARPENTIER
La dcomposition tendance-cycle
Lanalyse des sries temporelles (conomiques par exemple ) repose le plus souvent sur une dcomposition tendancecycle de la srie. Toutefois, cette dcomposition, si elle est trs utilise en pratique, ne repose pas sur une construction
thorique unique. Il est alors souvent admis que la tendance correspond lquilibre de long terme, alors que le cycle
correspond la dynamique de court terme. Mais cette distinction ne sut pas pour identier clairement les deux
composantes, et des hypothses supplmentaires sont alors ncessaires.
Deux approches sont alors gnrallement utilises : la premire consiste utiliser une thorie conomique (cest
dire un modle structurel dont les composantes auront des interprtations conomiques ), alors que la seconde tend
utiliser des outils statistiques neutres . Nous allons nous intresser ici cette seconde approche. Nanmoins,
nous pouvons ds prsent noter que cette neutralit est dicile mettre en oeuvre : il existe une innit de faon
de construire la tendance moyenne, par exemple. Il existe alors de nombreuses mthodes pour valuer la croissance
tendancielle.
Nous allons nous concentrer ici sur des dcompositions additives de la forme (Xt ) = (T t ) + (C t ). Un modle
multiplicatif peut en eet se ramener un modle additif en passant au logarithme. Les mthodes traditionelles
reposent sur deux techniques : lestimation dune tendance dterministe et le lissage. Des mthodes plus rcentes se
basent sur la notion de tendance stochastique, avec en particulier la mthode de Beveridge et Nelson, et les modles
composantes inobservables.
Parmi les mthodes de lissage, lapproche la plus simple consiste utiliser des moyennes mobiles on utilise alors
une moyenne (pondre) de la srie (Xt) dont la dure correspond au cycle, qui conserve la tendance et limine le
cycle. La moyenne symtrique arithmtique est lexemple le plus simple : on considre alors la srie (Yt ) dnie par
Yt = M (Xt ) =
1
(Xt m + Xtm+1 + ::: + Y t1 + Yt + Y t+1 + ::: + Yt+m )
2m + 1
(3)
Ce type de lre, comme nous le verrons par la suite, conserve les tendances linaires, et ltre (ou annule) les sries
priodiques de priode 2m + 1. Toutefois, deux problmes apparaissent dans lutilisation des ltres moyennes-mobiles
- les points extrmes de la srie ne peuvent tre traits de la mme faon que les autres points (eet de bord )
- les sries lisses sont souvent autocorrles, non pas cause de la structure de la srie initiale, mais il sagit dune
consquence du processus de lissage (eet Slutsky-Yule ).
Dautre mthodes de lissage existent, par exemple en utilisant la mthode P AT (phase average trend ) ou le ltre
de Hodrick-Prescott (1980).
Lestimation dun trend dterministe repose sur lutilisation de fonctions simples, par exemple linaires,
Xt = T t + C t = a + bt + C t
(4)
Ces modles apparaissent parfois dans la littrature sous le terme T S (trend stationary ), et le cycle (suppos stationnaire) apparat alors comme lcart la tendance. Cette tendance est alors estime par rgression. Cette mthode
sera celle developpe dans la premire partie, mme si elle a t fortement critique : la croissance long terme est
alors xe de faon mcanique. Des modles avec rupture de tendance ont ainsi t introduits.
Il convient toutefois de noter que cette dcomposition tendance-cycle ne sont pas adaptes pour les sries nonstationnaires, et il convient dintgrer une composante stochastique dans la tendance. Le modle de Beveridge et
Nelson propose dexprimer les composantes laide dune reprsentation ARIM A de la srie (trait dans lexercice (5)).
Les modles composantes inobservables repose surlutilisation de modles espace-tat (introduits dans le paragraphe
(7:4:3) sur le ltre de Kalman). Ces deux mthodes sont prsentes dans larticle de Doz, Rabault et Sobczack
Dcomposition tendance-cycle : estimations par des mthodes statistiques univaries (1995).
28
3
3.1
Arthur CHARPENTIER
Nous considrons ici une srie chronologique, mensuelle, comportant une forte saisonalit : trac voyageur de la SNCF
(source : Gouriroux & Monfort (1995))
1963
1964
1965
1966
1967
1968
1969
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
J AN
1750
1710
1670
1810
1850
1834
1798
1854
2008
2084
2081
2223
2481
2667
2706
2820
3313
2848
F EB
1560
1600
1640
1640
1590
1792
1850
1823
1835
2034
2112
2248
2428
2668
2586
2857
2644
2913
M AR
1820
1800
1770
1860
1880
1860
1981
2005
2120
2152
2279
2421
2596
2804
2796
3306
2872
3248
AP R
2090
2120
2190
1990
2210
2138
2085
2418
2304
2522
2661
2710
2923
2806
2978
3333
3267
3250
M AY
1910
2100
2020
2110
2110
2115
2120
2219
2264
2318
2281
2505
2795
2976
3053
3141
3391
3375
J UN
2410
2460
2610
2500
2480
2485
2491
2722
2175
2684
2929
3021
3287
3430
3463
3512
3682
3640
JU L
3140
3200
3190
3030
2880
2581
2834
2912
2928
2971
3089
3327
3598
3705
3649
3744
3937
3771
AU G SE P
2850 2090
2960 2190
2860 2140
2900 2160
2670 2100
2639 2038
2725 1932
2771 2153
2738 2178
2759 2267
2803 2296
3044 2607
3118 2875
3053 2764
3095 2839
3179 2984
3284 2849
3259 3206
OCT
1850
1870
1870
1940
1920
1936
2085
2136
2137
2152
2210
2525
2754
2802
2966
2950
3085
3269
N OV
1630
1770
1760
1750
1670
1784
1856
1910
2009
1978
2135
2160
2588
2707
2863
2896
3043
3181
DE C
2420
2270
2360
2330
2520
2391
2553
2537
2546
2723
2862
2876
3266
3307
3375
3611
3541
4008
3.2
janv-79
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
janv-70
janv-69
janv-68
janv-67
janv-66
janv-65
janv-64
1000
janv-63
1500
Le modle linaire
La srie Xt est la somme de 2 composantes dterministes : une tendance Zt , dune saisonnalit St et dune
composante alatoire "t
Xt = Zt + St + "t :
On suppose que Zt et S t sont des combinaisons linaires de fonctions connues dans le temps, Zti et Stj , i.e.
m
X
i=1
3.2.1
Zti i +
n
X
j=1
On supposera lhypothse (H1) vrie, savoir que les erreurs sont centres : E ("t ) = 0, de mme variance
V ("t ) = 2 et non-corrles cov ("t ; " th ) = 0 pour tout h > 0.
29
3.2.2
Arthur CHARPENTIER
La forme de St dpend du type de donnes, et de la forme de la saisonnalit. On considrera ici des fonctions Sti
indicatrices,
0 si t = mois i
0 si t = 0 [modulo i]
Sti =
ou Sti =
1 si t 6= mois i
1 si t 6= 0 [modulo i] :
Exemple 15 Pour des donnes trimestrielles, on a St = S1t 1 + S2t 2 + St3 3 + St4 4 o Stj est la fonction indicatrice
du trimestre j:
3.2.3
Composante tendancielle
1
(v) logistique Zt = t
:
Le cas (i) se traite par rgression simple (cf partie suivante), le cas (ii) se ramne au cas (i) par transformation
logarithmique, et le cas (iii) se traite par rgression multiple. Il est galement possible dutiliser des modles avec des
ruptures :
0 + 1 t pour t t0
Zt =
0 + 1 t pour t > t0 :
Cette tendance est une des composante les plus complique modliser car il nexiste pas vraiment de mthode
Exemple 17 Considrons comme variable le logarithme de lindice du New York Stock Exchange.reprsent cidessous, en haut gauche, sur laquelle nous avons tent trois ajustements dirents : linaires (en haut droite),
quadratique (en bas gauche) et exponentiel (en bas droite) :
7
6,5
log(NYSE)
Linaire
6
5,5
5
4,5
4
3,5
3
1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999
7
6,5
log(NYSE)
6,5
Polynomial
5,5
5,5
4,5
4,5
3,5
3,5
log(NYSE)
Exponentiel
3
1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999
1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999
La vraie dicult est que la modlisation doit pouvoir avoir un sens : une tendance linaire indique une croissance
linaire, alors quune tendance exponentielle indique une augmentation constante (rapport Xt =Xt 1 constant). En
revanche, une tendance quadratique peut tre plus dicile justier puisque la plupart des modles structurels sont
gnralement additifs (linaires) ou multiplicatifs (linaire en prenant le logarithme). Les tendances linaires avec
galement trs utilise, puisquelle sont souvent plus adapte quune tendance linaire simple, et surtout, la rupture
a une interprtation structurelle.
30
3.2.4
Arthur CHARPENTIER
La dsaisonnalisation par rgression linaire, dans le cas o la tendance est suppose linaire, et les donnes sont
trimestrielles, quivaut tester le modle linaire
Xt = a + t + 1 St1 + 2 St2 + 3 S 3t + 4 St4 + "t ;
| {z } |
{z
}
Zt
St
S 1t
1
0
0
0
1
0
0
0
1
..
.
S1t
0
1
0
0
0
1
0
0
0
..
.
St2
0
0
1
0
0
0
1
0
0
..
.
St3
St2
0
0
0
1
0
0
0
1
0
..
.
St4
C
C
C0
C
C
CB
CB
CB
CB
CB
CB
C@
C
C
C
C
C
A
St3
B
B
1 B
B
B
B
C
C B
B
C
1 C B
+B
C
2 C B
B
3 A B
B
4
B
B
B
@
"1
"2
"3
"4
"5
"6
"7
"8
"9
..
.
"t
donnes commencent au
0
0
0
1
0
0
0
1
0
..
.
St4
C B
C B
C B
C B
C B
C B
C B
C B
C B
C+B
C B
C B
C B
C B
C B
C B
C B
A @
"1
"2
"3
"4
"5
"6
"7
"8
"9
..
.
"t
C
C
C
C
C
C
C
C
C
C;
C
C
C
C
C
C
C
A
C
C
C
C
C
C
C
C
C
C soit X = Y + "
C
C
C
C
C
C
C
A
Lcriture de lestimateur des moindres carrs ordinaires scrit b = (Y 0 Y ) 1 Y 0X. Toutefos, cette criture nest possible
que si Y 0Y est inversible, ce qui nest pas le cas ici car la premire colonne (correspondant la constante) est gale
la somme des 4 dernires (les composantes trimestrielles ). Deux mthodes sont alors possibles pour faire malgr tout
lidentication du modle.
ne pas tenir compte de la constante, et identier le modle
Xt = t + 1 St1 + 2 St2 + 3 St3 + 4 St4 + "t ;
ra jouter une contrainte, et identier le modle
31
(5)
(6)
Arthur CHARPENTIER
Cette dernire contrainte est arbitraire, mais correspond une interprtation bien prcise. Considrons la srie
reprsente ci dessous, avec une saisonnalit dordre 4 (donnes trimestrielles)
350
350
300
300
250
250
200
200
150
150
100
100
50
50
scrit
1
C
C
C
C0
C
C
CB
CB
CB
CB
C@
C
C
C
C
C
C
A
5
40
100
200
60
C
C
C;
C
A
alors que le modle (6) correspont au graphique ci-dessus droite et le modle scrit alors
0
1 0
1
45
1 1 1
0
0
0
B 110 C B 1 2 0
1
0
0 C
B
C B
C
B 215 C B 1 3 0
0
1
0 C
1
B
C B
C0
B 80 C B 1 4 0
C
100
0
0
1
B
C B
CB
B 65 C B 1 5 1
5 C
0
0
0 C
C
B
C B
CB
B 60 C
B 130 C B 1 6 0
C
1
0
0
B
C:
B
C=B
CB
B 235 C B 1 7 0
CB 0 C
0
1
0
C
B
C B
C@
100 A
B 100 C B 1 8 0
C
0
0
1
B
C B
C
40
B 85 C B 1 9 1
0
0
0 C
B
C B
C
B .. C B .. ..
..
..
..
.. C
@ . A @ . .
.
.
.
. A
1
2
3
Xt
1 t S t St St St4
Dans le premier modle, la tendance ne correspond pas tout fait la notion intuitive de la saisonnalit
En fait, il est possible de voir aisment quun simple jeu de translations permet de passer dun modle lautre.
3.3
3.3.1
m
X
i=1
Zti i +
n
X
j=1
32
Arthur CHARPENTIER
La mthode des mco consiste choisir les i et j de faon minimiser le carr des erreurs
(
)
X
2
b
;b
= arg min
"
i
t= 1
=
0
8
2
329
>
>
m
n
<X
=
X
X
4 Xt
arg min
Zti i +
Stj j 5
:
>
>
: t=1
;
i=1
j=1
0
Le modle scrit
:::
X = Z + S + " = [ZjS]
+ " = Y b + ";
0
et b
b= b
;
b vrie alors lquation
Y 0Y bb = Y 0 X soit [Z S]
et donc
3
j
h i
S n 5 = S jt j=1;:::; n
t=1;:::;T
j
Z0Z
S 0Z
Z0S
S 0S
Z0
S0
bb =
Z 0X
S0X
Z0
S0
X;
Remarque 12 Sil ny a pas deet saisonnier, X = Z + ", et on retrouve le modle linaire usuel, avec pour
estimateur mco b
= [Z 0 Z]1 Z 0 X:
3.3.2
Pour le modle
Xt = 1 + 2 t + St1 1 + St2 2 + S 3t 3 + St4 4 + "t ;
il est possible dexpliciter les dirents coecients. Lquation
(
i2
PT h
P4
j
min ; t= 1 Xt 1 2 t j=1 St j
sous contrainte () 1 + 2 + 3 + 4 = 0;
peut se rcrire
8
2
32
>
T
4
<
X
X
1 = [1 + 2 + 3 + 4 ] =4
4 Xt 2 t
min
Stj j 5 o
j = j 1 ;
>
;
:
t=1
j=1
do nallement
h
i
b
1 = b1 + b
2 + b
3 + b4 =4
= bj b
b
33
(7)
(8)
(9)
3.3.3
Arthur CHARPENTIER
Les relations obtenues dans le cas prcdant peuvent en fait tre gnralises dans le cas dune priodicit m; et en
notant (de la mme faon que prcdemment ) N le nombre dannes entures. L modle scrit alors
Xt = 1 + 2 t + St1 1 + St2 2 + St3 3 + ::: + Sm
t m + "t:
Lquation
min ;
PT
t=1
h
i2
P
j
Xt 1 2 t m
j=1 St j
PN
N (N+1)
ne
xn
2
N (N 2 1)
n=1
Nm + 1
b 1 = x b
2
2
m+1
j = e
b
xj x b
2 j
2
3.4
3.4.1
34
Arthur CHARPENTIER
reprsente ci-dessous,
11000
10000
9000
8000
7000
6000
5000
64
66
68
70
72
74
76
78
80
SNCF
Considrons alors un modle de la forme suivante, avec une saisonnalit en 4 composantes (les donnes tant trimestrielles
: chaque composante correspondant un trimestre ), et une tendance suppose linaire (Zt = 1 + 2 t),
Xt = 1 + 2 t + St1 1 + St2 2 + S 3t 3 + St4 4 + "t ;
Compte tenu de la sur-identication de ce modle, on rajoute la contrainte que la somme des j soit nulle (cest dire
que la composante saionnire soit centre : E (St ) = 0). On peut alors faire lestimation de la faon suivante :
(i) on estime le modle (5), cest dire sans contrainte, et sans constante 1
(ii) et on se ramne au modle (6) en utilisant les relations.
Pour ltape (i) deux mthodes analogues sont possibles : soit en utilisant les expressions des estimateurs, soit en
eectuant la rgression sous EViews
Calcul direct des estimateurs
Les calculs ont t fait ici sous MSExcel, et sont prsents ci-dessous :
1963
1964
1965
1966
1967
1968
1969
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
nnj
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
xj
5
5
5
5
5
5
5
5
5
6
6
6
7
8
8
8
8
9
6
T1
130
110
080
310
320
486
629
682
963
270
472
892
505
139
088
983
829
009
605
6
6
6
6
6
6
6
7
6
7
7
8
9
9
9
9
10
10
7
T2
410
680
820
600
800
738
696
359
743
524
871
236
005
212
494
986
340
265
932
8
8
8
8
7
7
7
7
7
7
8
8
9
9
9
9
10
10
8
T3
T4
080
5 900
350
5 910
190
5 990
090
6 020
650
6 110
258
6 111
491
6 494
836
6 583
844
6 692
997
6 853
188
7 207
978
7 561
591
8 608
522
8 816
583
9 204
907
9 457
070
9 669
236 10 458
603
7 425
xn
e
6 380,00
6 512,50
6 520,00
6 505,00
6 470,00
6 398,25
6 577,50
6 865,00
6 810,50
7 161,00
7 434,50
7 916,75
8 677,25
8 922,25
9 092,25
9 583,25
9 727,00
9 992,00
7641; 39
6
13
19
26
32
38
46
54
61
71
81
95
112
124
136
153
165
179
ne
xn
380,00
025,00
560,00
020,00
350,00
389,50
042,50
920,00
294,50
610,00
779,50
001,00
804,25
911,50
383,75
332,00
359,00
856,00
Pour chacune des annes et chacun des trimestre, il est possible de calculer des moyennes : aussi, la moyenne pour
1963 tait de 6380, et de 7435 pour 1973, et de faon analogue, la moyenne pour le premier trimestre est de 6605, et
de 8603 pour le troisime. La moyenne totale est alors de 7641, pour ces 72 observations. Aussi, N = 18 (on a 18
annes dobservations), et la pente de la droite de la tendance est donne par
"
#
N
X
3
N
(N
+
1)
3
b 2 =
ne
xn
x =
[1 419 019-1 306 678] t 57:97
N (N 2 1)
2
18 (18 2 1)
n=1
35
Arthur CHARPENTIER
en utilisant les moyennes par trimestre, et par anne, donnes dans le tableau ci-dessus, et
8
b
>
1 = 6605 35 57:97 t 4577
>
>
< b
2 = 7932 36 57:97 t 5845
bj = xj [j + 2 (N 1)] b et donc
2
b
>
3 = 8603 37 57:97 t 6459
>
>
: b
4 = 7425 38 57:97 t 5222
do nallement
(
Aussi, le modle scrit
8
b1 = 4577 5526
>
>
>
< b
2 = 5845 5526
soit
b
>
3 = 6459 5526
>
>
: b
4 = 5222 5526
h
i
b 1 = b1 + b
2 + b3 + b
4 =4 t 5526
bj = b
j b
1
t 949
t +320
t +933
t 304
Coefficient
Std. Error
T-Statistic
57.96749
4576.527
5845.337
6458.592
5221.846
3.138733
170.4094
172.4495
174.5222
176.6264
18.46844
26.85607
33.89593
37.00728
29.56436
R-squared
0.874440
Adjusted R-squared 0.866943
S.E. of regression 552.7023
Sum squared resid 20467147
Log likelihood
-554.2395
Durbin-Watson stat 0.807306
Prob.
0.0000
0.0000
0.0000
0.0000
0.0000
7641.389
1515.211
12.69655
12.85466
116.6518
0.000000
La lecture de la sortie donne eectivement les mmes rsultats numriques que les calculs prsents ci-dessus. Toutefois,
il est ais de voir que ce modle est dicile retenir, compte tenu du fait que les rsidus ne semblent pas i:i:d:
12000
10000
8000
2000
6000
1000
4000
0
-1000
-2000
64
66
68
70
72
Residual
74
Actual
76
78
80
Fitted
Lerreur de modlisaiton (les rsidus ) est, en moyenne, beaucoup trop importante au dbut, ainsi quau milieu (dbut
des annees 70), mais lerreur se faisant ici dans lautre sens. Le caractre non-i:i:d: des rsidus pouvait tre devine
la lecture des sorties de la rgression, grce au test de Durbin Watson, qui valide le caractre AR (1) des rsidus.
36
Arthur CHARPENTIER
bt
avec (Zt ) en trait plein, et X
bt = Xt "t =
X
m
X
Zti i +
i=1
n
X
S t j;
j= 1
m
X
Zti i + "t:
i=1
Pn
Remarque 13 La composante saisonnire St correspond j=1 Stj j , telle quelle apparat dans le modle contraint.
Elle vrie alors E (St) = 0. Cette proprit nest pas vrie dans le modle sans constante.
12000
11000
10000
10000
9000
8000
8000
7000
6000
6000
4000
64
66
68
70
TENDANCE
3.4.2
72
74
76
78
5000
80
64
66
SAISONNALITE
68
70
72
SNCF_CVS
74
76
78
80
SNCF
JAN
1750
1710
1670
1810
1850
1834
1798
1854
2008
2084
2081
2223
2481
2667
2706
2820
3313
2848
2195
FEB
1560
1600
1640
1640
1590
1792
1850
1823
1835
2034
2112
2248
2428
2668
2586
2857
2644
2913
2101
M AR
1820
1800
1770
1860
1880
1860
1981
2005
2120
2152
2279
2421
2596
2804
2796
3306
2872
3248
2309
AP R
2090
2120
2190
1990
2210
2138
2085
2418
2304
2522
2661
2710
2923
2806
2978
3333
3267
3250
2555
M AY
1910
2100
2020
2110
2110
2115
2120
2219
2264
2318
2281
2505
2795
2976
3053
3141
3391
3375
2489
JUN
2410
2460
2610
2500
2480
2485
2491
2722
2175
2684
2929
3021
3287
3430
3463
3512
3682
3640
2888
J UL
3140
3200
3190
3030
2880
2581
2834
2912
2928
2971
3089
3327
3598
3705
3649
3744
3937
3771
3249
AU G
2850
2960
2860
2900
2670
2639
2725
2771
2738
2759
2803
3044
3118
3053
3095
3179
3284
3259
2928
SEP
2090
2190
2140
2160
2100
2038
1932
2153
2178
2267
2296
2607
2875
2764
2839
2984
2849
3206
2426
OC T
1850
1870
1870
1940
1920
1936
2085
2136
2137
2152
2210
2525
2754
2802
2966
2950
3085
3269
2359
N OV
1630
1770
1760
1750
1670
1784
1856
1910
2009
1978
2135
2160
2588
2707
2863
2896
3043
3181
2205
DEC
2420
2270
2360
2330
2520
2391
2553
2537
2546
2723
2862
2876
3266
3307
3375
3611
3541
4008
2861
b1
1038
b
2
943
b3
1156
b4
1380
b5
1293
b
6
1667
37
b
7
1938
b
8
1517
b
9
1135
b
10
1123
b11
975
b
12
1618
en
x
2127
2171
2173
2168
2157
2133
2192
2288
2270
2387
2478
2639
2892
2974
3031
3194
3242
3331
2547
Arthur CHARPENTIER
3.5
janv-79
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
janv-70
janv-69
janv-68
janv-67
janv-66
janv-65
janv-64
janv-79
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
1000
janv-70
1500
1000
janv-69
2000
1500
janv-68
2500
2000
janv-67
3000
2500
janv-66
3500
3000
janv-65
4000
3500
janv-64
4500
4000
janv-63
4500
janv-63
Ce qui donne la srie ajuste ( gauche) et la srie corrige des variations saisonnires ( droite)
b
Z 0Z Z 0S
2
Vb
=s
S0Z S0S
; o s2 =
t=1
3.6
3.6.1
T
X
1
"b2t ;
T nm
Prvision un horizon h
Calcul de la prvision
m
X
ZTi +h i +
i= 1
n
X
STj +h j + " T + h;
j=1
avec E (" T +h ) = 0, V ("T +h ) = 2 et cov ("t ; "T +h ) = 0 pour t = 1; :::; T . La variable XT +h peut tre approche par
b T (h) =
X
m
X
i=1
ZTi +h b i +
n
X
j=1
STj + h b
j :
Cette prvision est la meilleur (au sens de lerreur quadratique moyenne) prvision, linaire en X1 ; :::; XT et sans
biais. Un intervalle de conance de cette prvision est de la forme
h
p
p i
bT (h) 1 =2 b
bT (h) + 1=2 b
X
eh ; X
eh ;
o 1=2 est le quantile dordre de la loi de Student T m n degrs de libert, et o
ebh
0
1
h
m
n
i2
X
X
b X
b T (h) XT +h
b@
= E
=V
ZTi + h b
i +
STj +h b
j "T +h A
=
b
jb
0
Vb
" #
b
b
+ s2:
38
i=1
j=1
3.6.2
Arthur CHARPENTIER
Dans lexemple considr prcdemment, en donnes mensuelles, considrons dsormais lensemble des donnes entre
janvier 1970 et dcembre 1980, et considrons le modle suivant
11
12
Xt = 2 t + St1 1 + St2 2 + St3 3 + St4 4 + St5 5 + St6 6 + St7 7 + St8 8 + St9 9 + S10
t 10 + St 11 + St 12 + "t
b1
1038
b
2
943
b3
1156
b4
1380
b5
1293
b
6
1667
b
7
1938
b
8
1517
b
9
1135
b
10
1123
4500
4000
Variable Coefficient
TEMPS
MOIS01
MOIS02
MOIS03
MOIS04
MOIS05
MOIS06
MOIS07
MOIS08
MOIS09
MOIS10
MOIS11
MOIS12
0.316040
61.85432
62.08883
62.32406
62.55999
62.79664
63.03398
63.27200
63.51071
63.75009
63.99014
64.23084
64.47220
3500
3000
2500
2000
R-squared
0.932001
Adjusted R-squared 0.925144
S.E. of regression 137.7877
Sum squared resid 2259269.
Log likelihood
-830.6514
Durbin-Watson stat 1.284049
1500
70
71
72
73
74
75
76
77
78
79
9.820391
1038.316
943.3138
1156.312
1380.400
1292.943
1667.396
1938.121
1516.664
1135.480
1122.751
975.1121
1618.201
80
SNCF
31.07324
16.78647
15.19297
18.55321
22.06522
20.58937
26.45233
30.63157
23.88045
17.81143
17.54568
15.18137
25.09920
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic )
b11
975
b
12
1618
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
2793.386
503.6128
9.944720
10.22863
135.9186
0.000000
Comme le montre la sortie ci-dessus droite, tous les paramtres sont signicatifs, le R 2 est relativement bon (93%),
la statistique de Fisher F est susement grande pour valider le modle. La courbe de gauche ci-dessous correspond
la prvision du nombre de voyageurs pour 1982 et 1983; et l.intervalle de conance de cette prvision.est donn
droite,
5000
4500
4000
4000
3500
3000
3000
2500
2000
2000
1000
1500
70 71 72 73 74 75 76 77 78 79 80 81 82
70 71 72 73 74 75 76 77 78 79 80 81 82
SNCF
SNCFF
SNCFF
2 S.E.
A 95%, lintervalle de conance correspond la prvision 145 (soit prvision 5%). Si cette prvision est aussi
robuste, cest aussi parce que lon a restreint lintervalle dtude 1970 1980, en enlevant les premires annes. Les
rsidus ainsi obtenus sont reprsents ci-dessous
4500
4000
3500
3000
2500
400
2000
200
1500
0
-200
-400
-600
70 71
72
73 74
75 76
Residual
77
Actual
39
78 79
Fitted
80
Arthur CHARPENTIER
METHODES PARAMETRIQUES
REGRESSIONS GLOBALES
Buys-Ballot (1847)
MOYENNES MOBILES
Slutsky (1927) - Macauley (1930)
MEDIANES MOBILES
MODELE X11-CENSUS
Bureau du Census (1965)
S.A.B.L. (1982)
LOWESS (1979)
S.T.L. (1990)
MODELES ARIMA
Box & Jenkins (1970)
MODELE X11-ARIMA
Statistique Canada (1975/1988)
S.E.A.T.S. (1980)
S.T.A.M.P. (1987)
MODELE X12-ARIMA
(1994)
La mthode de Buys-Ballot, bas sur une regression globale du modle a t prsent dans la partie prcdante. Nous
allons prsenter dans cette partie les mthodes bases sur des rgressions locales. Les rgressions locales consistent
ajuster des polynmes, en gnral par les moindres carrs, sur des intervalles glissants (se dcallant chaque fois
dun point). Au centre de cette intervalle, la donne lisse est la valeur, cette date, du polynme ajust. Ces
rgressions locales reviennent appliquer des moyennes mobiles.
4.1
4.1.1
Dnition 16 On appelera oprateur retard L (=lag, ou B =backward) loprateur linaire dni par
L : Xt 7! L (Xt) = LXt = Xt1 ;
et oprateur avance F (=forward)
F : Xt 7! F (Xt ) = F Xt = Xt+1 ;
40
Arthur CHARPENTIER
Lp = L
::: L}
| L {z
p fo is
p
X
ak Lk :
k=0
Soit (Xt ) une srie temporelle. La srie (Yt ) dnie par Y t = A (L) Xt vrie
Y t = A (L) Xt =
p
X
ak Xtk :
k=0
1
X
ak z k et A (L) =
k=0
1
X
ak Lk :
k=0
bkL
=
ciL
o ci =
ak b ik :
k=0
4.1.2
i=0
k=0
k=0
Dnition 17 Une moyenne mobile est un oprateur linaire, combinaison linaire doprateurs retard
M =
m2
X
i=m 1
iLi ; o m 1 ; m2 2 N,
m1
+m2
X
im 1L i = Lm1
i=0
m1
+m 2
X
i m1 F i = L m1 (F ) ;
(10)
i=0
41
Arthur CHARPENTIER
On peut dj noter, pour les moyennes centres symtriques, sont ncessairement dordre impair (pour tre centres). Pour m impair, on considrera les moyennes mobiles dordre m = 2p + 1 dnie par
Mm (Xt) =
1
[Xtp + Xtp+1 + ::: + Xt1 + Xt + Xt+ 1 + ::: + Xt+p1 + Xt+p ] :
m
Exemple 20 La moyenne mobile dordre 3 - Cette moyenne mobile a pour coecients 1=3; 1=3; 1=3,
M3 (Xt ) =
1
[Xt 1 + Xt + Xt+1 ] :
3
Exemple 21 La moyenne mobile dordre 9 - Cette moyenne mobile a pour coecients 1=9; 1=9; :::; 1=9,
M9 (Xt ) =
1
[Xt 4 + Xt3 + ::: + Xt + ::: + Xt+4 ] :
9
Les deux moyennes prcdentes sont reprsentes sur les graphiques dessous,
MOYENNE MOBILE ORDRE 9
RUPTURE
MOYENNE MOBILE
MOYENNE MOBILE
SAISONNALITE (12)
SAISONNALITE (6)
SINUS - PERIODE 24
MOYENNE MOBILE
RUPTURE
MOYENNE MOBILE
MOYENNE MOBILE
MOYENNE MOBILE
SAISONNALITE (12)
SAISONNALITE (6)
MOYENNE MOBILE
MOYENNE MOBILE
Toutefois, il est possible de construire des moyennes mobiles centres et symtriques dordre pair, de faon articielle. Pour cela, pour m = 2p on considrera les moyennes mobiles dnies par
Mm (Xt) =
1
Xtp+1=2 + ::: + Xt1=2 + Xt+ 1=2 + ::: + Xt+p 1=2 ;
m
o Xt 1=2 est obtenue comme valeur intermdiaire entre Xt 1 et Xt. Cette moyenne mobile peut donc se rcrire
1 1
1
1
1
M m (Xt) =
(Xtp + Xt p+1 ) + ::: + (Xt 1 + Xt) + (Xt + Xt+1 ) + ::: + (Xt+p1 + Xt+p )
m 2
2
2
2
1 1
1
=
Xt p + Xtp+1 + ::: + Xt1 + Xt + Xt+1 + ::: + Xt+p 1 + Xt+p :
m 2
2
1
[X T11/ 2 + X T1/ 2 + X T+1/ 2 + X T +1+1/ 2 ]
5
1 1
1
YT = X T 2 + X T 1 + X T + X T +1 + X T+ 2
5 2
2
YT =
XT+2
XT+1
T-5
T-4
T-3
T-2
T-1
42
T+1
T+2
T+3
T+4
T+5
Arthur CHARPENTIER
Cette moyenne mobile dordre pair est en fait une moyenne mobile dordre impair, que lon notera M 2p , dnie par
1
[Xt p + 2Xtp+1 + ::: + 2Xt1 + 2Xt + 2Xt+1 + ::: + 2Xt+p 1 + Xt+p ] :
2m
Exemple 22 La moyenne mobile 2 4 - Cette moyenne mobile permet permet destimer des tendances dans le cas
de donnes trimestrielles, el le est dordre 5 et de coecients 1=8; 1=4; 1=4; 1=4; 1=8
M 2p (Xt ) =
1
[Xt2 + 2Xt1 + 2Xt + 2Xt+1 + Xt+2 ] :
8
Comme nous le verrons par la suite, elle limine les saisonnalits trimestrielles des sries trimestriel les, elle conserve
les tendances linaires, et elle rduit de 75% la variance dun bruit blanc.
M24 (Xt ) =
Exemple 23 La moyenne mobile 2 12 - Cette moyenne mobile permet permet destimer des tendances dans le
cas de donnes mensuelles, elle est dordre 13 et de coecients 1=24; 1=12; 1=12; :::; 1=12; 1=24
1
[Xt6 + 2Xt5 + 2Xt4 + ::: + 2Xt+ 5 + Xt+6 ] :
24
Comme nous le verrons par la suite, elle limine les saisonnalits annuelles des sries mensuelles, elle conserve les
tendances linaires, et elle rduit de plus de 90% la variance dun bruit blanc.
M24 (Xt) =
Les deux moyennes prcdentes sont reprsentes sur les graphiques dessous
MOYENNE MOBILE ORDRE 2x12
RUPTURE
SAISONNALITE (12)
MOYENNE MOBILE
MOYENNE MOBILE
SINUS - PERIODE 24
MOYENNE MOBILE
SAISONNALITE (6)
RUPTURE
MOYENNE MOBILE
SAISONNALITE (12)
MOYENNE MOBILE
MOYENNE MOBILE
SAISONNALITE (6)
MOYENNE MOBILE
MOYENNE MOBILE
Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
janv-70
janv-69
janv-68
janv-67
janv-64
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
1000
janv-70
1500
1000
janv-69
2000
1500
janv-68
2500
2000
janv-67
3000
2500
janv-66
3500
3000
janv-65
4000
3500
janv-64
4000
janv-66
janv-65
Exemple 24 La moyenne mobile 33 - Cette moyenne mobile est dordre 5 et de coecients 1=9; 2=9; 3=9; 2=9; 1=9
1
[Xt2 + 2Xt1 + 3Xt + 2Xt+1 + Xt+2 ] :
9
Exemple 25 La moyenne mobile 3 9 - Cette moyenne mobile est dordre 11 et de coecients 1=27; 2=27; 3=27;
3=27; :::; 3=27; 2=27; 1=27
M33 (Xt ) =
1
[Xt 5 + 2Xt4 + 3Xt3 + 3Xt2 + 3Xt1 + ::: + 3Xt+4 + 2Xt+4 + Xt+5 ] :
27
Ces deux moyennes mobiles conservent les droites, et rduisent respectivement de 75% et de 90% la variance dun bruit
blanc.
M 39 (Xt) =
43
Arthur CHARPENTIER
Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
janv-70
janv-69
janv-68
janv-67
janv-65
janv-64
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
1000
janv-70
1500
1000
janv-69
2000
1500
janv-68
2500
2000
janv-67
3000
2500
janv-66
3500
3000
janv-65
4000
3500
janv-64
4000
janv-66
Exemple 26 Les moyennes mobiles dHenderson - Ces moyennes mobiles sont utilises dans la mthode X11
pour extraire la tendance dune estimation de la srie corrige des variations saisonnires (partie (4:4:2)). Ces
P 3 2
moyennes reposent sur lutilisation de loprateur H =
i o est loprateur dirence premire (Xt =
Xt Xt 1 ). Cette quantit est nulle dans le cas o les i se retrouvent sur une parabole : H mesure la distance entre
la forme parabolique et la forme de la fonction dnissant les i . Hendersen a cherch les moyennes mobiles centres,
dordre impair, conservant les polynmes de degr 2, et minimisant la fonction H :
min
sous constraintes
+p
X
i= p
i = 1,
+p
X
ii = 0 et
i=p
+p
X
i 2 i = 0;
i=p
2
2
315 (n 1) i 2 n2 i2 (n + 1) i2 3n2 16 11i 2
i =
:
8n (n2 1) (4n2 1) (4n2 9) (4n2 25)
Cette relation permet dobtenir un certain nombre de moyennes mobiles
5 termes : M5 (Xt) =
7 termes : M7 (Xt ) =
1
[21Xt2 + 84Xt1 + 160Xt + 84Xt+1 21Xt+2 ] ;
286
1
[42Xt3 + 42Xt 2 + 210Xt1 + 295Xt + 210Xt+1 + 42Xt+2 42Xt+ 3] :
715
Les deux moyennes prcdentes (5 et 7 termes) sont reprsentes sur les graphiques ci-dessous
MOYENNE MOBILE HENDERSON - 5
SINUS - PERIODE 24
RUPTURE
MOYENNE MOBILE
MOYENNE MOBILE
SAISONNALITE (12)
SAISONNALITE (6)
SINUS - PERIODE 24
RUPTURE
MOYENNE MOBILE
44
MOYENNE MOBILE
MOYENNE MOBILE
SAISONNALITE (12)
SAISONNALITE (6)
MOYENNE MOBILE
MOYENNE MOBILE
Arthur CHARPENTIER
Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
janv-70
janv-69
janv-68
janv-67
janv-65
janv-64
janv-78
janv-77
janv-76
janv-75
janv-74
janv-73
janv-72
janv-71
1000
janv-70
1500
1000
janv-69
2000
1500
janv-68
2500
2000
janv-67
3000
2500
janv-66
3500
3000
janv-65
4000
3500
janv-64
4000
janv-66
0.5
0.5
0.4
0.4
0.4
0.3
0.3
0.3
0.2
0.2
0.2
0.1
0.1
0.1
0
0
-12
-9
-6
-3
-12
12
-6
-3
0.4
0.3
0.2
0.1
0
-9
-6
-3
-9
-6
-3
12
0.5
0.5
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
-12
-12
12
-0.1
-0.1
-9
-0.1
-0.1
4.1.3
Moyenne mobile de 3 x5
12
0
-12
-9
-6
-3
12
-0.1
-12
-9
-6
-3
12
-0.1
Dnition 19 Soient M1 et M2 deux moyennes mobiles. Le produit de M 1 et M 2 est obtenu par composition des
moyennes mobiles
M1 M 2 (Xt ) = M 1 M 2 (Xt ) :
Proprit 10 Ce produit est commutatif et associatif
M1 M2 = M 2 M 1 et M 1 (M 2 M 3 ) = (M 1 M 2 ) M 3 :
De plus, le produit est distributif par rapport laddition.
Proprit 11 Lensemble des moyennes mobiles constitue un espace vectoriel.
Proprit 12 La compose de deux moyennes mobiles symtriques est symtrique.
4.2
Dnition 20 Soit M une moyenne mobile. Sil existe et (Xt) non nul tels que M (Xt) = Xt , (Xt) sera vecteur
propre associ la valeur propre .
45
4.2.1
Arthur CHARPENTIER
Dnition 21 Une suite (X t) est dite absorbe par M si et seulement si M (Xt) = 0 pour tout t.
Exemple 27 Soit M la moyenne mobile dnie par M (Xt ) = Xt + Xt 1 + Xt 2 . La srie chronologique dnie
rcursivement par Yt = [Y t1 + Y t2 ] est absorbe par M .
Proprit 13 Les vecteurs propres associs la valeur propre = 0 forment un espace vectoriel de dimension
m 1 + m 2 , dont une base est constitue des Ztk = (k rt ) pour k = 0; 1; :::; p 1, o r est racine non nulle du polynme
.
Exemple 28 Dans lexemple (27), on peut chercher construire une base de la forme Zt = rt , qui devra satisfaire
rt + r t1 + rt 2 = 0 pour tout t
cest dire r2 + r + 1 = 0. Aussi, r est une racine du polynme caractristique de M si et seulement si
p
1 i 3
2i
2i
r=
soient r1 = exp
et r2 = exp
2
3
3
Aussi, les suites absorbes sont ncessairement de la forme
Xt = r1t + r2t ; pour tout t:
Or
Et donc, lespace vectoriel des suites absorbes par M admet pour base relle
n
o
B = cos 2t
; sin 2t
;
3
3
Thorme 3 Une moyenne mobile M absorbe la composante saisonnire de priode T si et seulement si son polynme
caractristique est divisible par 1 + z + ::: + z T 1 :
Preuve. Par dnition de la priodicit des composantes saisonnires, si T est la priode, les St sont les suites
solutions de
S t+1 + ::: + St+ T = 0 pour tout t 2 Z
Lespace vectoriel des solutions est engendr par les suites (rt ) o r satisfait
Dnition 22 Une suite (X t) est dite invariante par M si et seulement si M (Xt) = 0 pour tout t
Une suite (Xt) est dite invariante par M si elle est absorbe par (M I) :
Proprit 14 (i) Les suites constantes sont invariantes par M si et seulement si la somme de ses coecients vaut 1;
(ii) Les polynmes de degr k sont invariantes par M si et seulement si 1 est racine dordre au moins k + 1 de
= (z) z m1 ;, o M = Lm 1 (F ) ;
(iii) Si M est symtrique et conserve les constantes, alors M conserve les polynmes de degr 1:
46
Arthur CHARPENTIER
m2
X
i Li = Lm 1 (F ) :
i= m1
i
i k = k;
i=m 1
m1 (t m 1 ) + ::: + m 1 (t + m 1 ) = t (m 1 + ::: + m1 ) + m1 ( m1 + m1 )
+ (m 1 1) ( m1+1 + m 11 ) + ::: + 1: ( 1 + 1 ) + 0: 0 ;
Proprit 15 Soit M = Lm1 (F ) une moyenne mobile de polynme caractristique . Alors toute suite (rt ) est
vecteur propre de M associ la valeur propre = r m1 (r) :
Preuve. De (10) ; on peut crire
m2
m2
X
X
M rt =
i rt+i = r tm1
i ri+m1 = rt r m1 (r) ;
i= m1
i= m1
et donc M (rt ) = r m1 (r) r t pour tout t, ce qui correspond la dnition dlments propres.
Suites gometriques relles Si r est rel alors lapplication dune moyenne mobile la suite gomtrique (rt )
revient faire une homothtie de rapport rm 1 (r).
Suites gomtriques complexes
r m1 (r) = (!) ei(!) ,
ce qui correspond un eet dchelle (le module faisant intervenir le coecient (!)) comme dans le cas rel, mais
aussi un eet de phase puisque largument se voit a jouter un lment (!).
Exemple 29 Une suite de la forme t sin !t sera transforme par M en [ (!) t] sin [!t + (!)],
=1, >1 et =0
1.5
1.5
0.5
0.5
-0.5
-0.5
-1
-1
-1.5
-1.5
-2
-2
47
=1, =1 et 0
Arthur CHARPENTIER
Proprit 16 Si M est symtrique, alors leet de phase sur la suite gomtrique ei!t est soit = 0 soit = :
P
i!k
Preuve. Ce rsultat se montre en explicitant M e i!t et en notant que m
est rel. Si ce rel est
k= m jjje
positif, alors = 0 et sil est ngatif = .
Remarque 15 Ce rsultat ne marche que pour la suite gomtrique ei!t et devient faux pour 6= 1, mme pour
une moyenne mobile symtrique.
4.2.5
Considrons comme moyenne mobile loprateur dirence p = (I L) p pour p > 0. Cette moyenne mobile transforme un polynme
de degr k p en une constante. En eet, appliquer 1 revient abaisser le degr du polynme
de 1, car 1 tk = tk (t 1)k , polynme de degr k 1, et recursivement, appliquer p = p1 revient abaisser le
degr du polynme de p.
Une telle moyenne mobile permet dliminer
une tendance qui serait un plynome de bas degr. Nous allons tudier
!
(I L) ei!t = ei!t ei!(t1) = ei!t 1 ei! = e i! :2 sin :ei[ !]=2
2
soit (!) = 1 (!) = 2 sin (!=2) et (!) = 1 (!) = [ !] =2.
Cas p 1
p
X
j
p = (I L) =
(1) j Lj
p
p
j= 0
donc
X
p e i!t =
j=0
j
p
p
! i p ip[ !]=2
j
(1) e i!j = ei!t 1 ei! = ei!t :2p sin
e
2
6
5
4
3
1
0
/3
48
Arthur CHARPENTIER
2
1
1
2
1
1
1
1
2
1
1
2
1
2
1
1
2
1
2
1
1
2
1
1
1
1
2
1
1
2
1
2
2
1
1 1
1 2
2 1
1
1
1
1
2
1
1
2
1
2
1
1
2
1
2 1
1
1
1
2
2
1
1 1
1 2
1
2
1
1
2
1
Comme on peut le noter, suite ne change pas damplitude, elle est juste dphase.
Exemple 31 Considrons la srie de cycle =2
Xt
1 X t
2 X t
3 X t
4 X t
5 X t
1
1
0
2
4
4
0
1
2
2
0
4
1
1
0
2
4
4
0
1
2
2
0
4
1
1
0
2
4
4
0 1
1 1
2
0
2
2
0
4
4
4
0
1
2
2
0
4
1
1
0
2
4
4
0 1
1 1
2
0
2
2
0
4
4
4
0
1
2
2
0
4
On retrouve l aussi un dphage, avec un coecient damplitude qui augmente avec p. On peut ainsi noter que
4 Xt correspond 4 fois la srie initiale Xt; avec un dphasage puisque les valeurs positives deviennent ngatives, et
inversement.
Exemple 32 Considrons la srie de cycle =6, alors, comme le montre les graphiques ci-dessous ( gauche Xt et
1 Xt ; et droite 2 Xt et 4 Xt ), on retrouve l aussi un dphage, avec un coecient damplitude qui diminue avec
p.
4.00
4.00
3.00
3.00
2.00
2.00
1.00
1.00
0.00
0.00
-1.00
-1.00
Xt
-2.00
-2.00
-3.00
-3.00
-4.00
-4.00
4.00
4.00
3.00
3.00
2.00
2.00
1 X t
1.00
4 X t
1.00
0.00
0.00
-1.00
-1.00
-2.00
-2.00
-3.00
-3.00
-4.00
4.2.6
2 X t
-4.00
En considrant des donnes mensuelles, et une composante saisonnire annuelle (priode 12) et s = 12, alors p;12 (2=12) =
0. On retrouve ainsi le fait que cette moyenne mobile p;12 limine une composante saisonnire de priode 12. Toutefois, les saisonnalits de priodes 8 mois, ou 24 mois sont amplies.
4.2.7
q
X
j=q
j Lj o q 2 Nnf0g et j =
49
1
:
2q + 1
Arthur CHARPENTIER
(dmonstration en exercice ) do
:
(!) =
(2q + 1) sin [!=2]
La moyenne mobile tant symtrique, le dphasage est 0 ou (selon les valeurs de !).
4.2.8
q
X
j=q
(dmonstration en exercice ) do
j Lj o q 2 Nnf0g et j =
sin [q!]
M ei!t = e i!t
cotan
;
2q
2
!
sin [q!]
:
(!) =
cotan
2q
2
!
sin [6!]
;
(!) =
cotan
12
2
qui sannule en =6; 2=6; 3=6; 4=6; 5=6... correspondant des priodes 12; 6; :::.
Remarque 16 La moyenne mobile dordre pair avec q = 6 absorbe les composantes saisonnires priodiques de
priodes 12 (et les harmoniques), tout en conservant les basses frquences (correspondant la tendance). Cette moyenne
mobile est appele M2 12 dans la partie (4:4:2) sur la mthode X11:
1.2
1
0.8
0.6
0.4
0.2
0
/6
2/6
3/6
-0.2
-0.4
Exemple 33 Les graphiques ci-dessous reprsentent, gauche, la moyenne mobile 2 6 et droite, la moyenne
50
Arthur CHARPENTIER
mobile 2 12
MOYENNE MOBILE ORDRE 2x12
RUPTURE
SAISONNALITE (12)
MOYENNE MOBILE
MOYENNE MOBILE
MOYENNE MOBILE
SAISONNALITE (6)
SINUS - PERIODE 24
RUPTURE
MOYENNE MOBILE
MOYENNE MOBILE
MOYENNE MOBILE
SAISONNALITE (12)
SAISONNALITE (6)
MOYENNE MOBILE
MOYENNE MOBILE
La premire permet de faire disparatre la saisonnalit semi-annuel le (priode 6 - en bas droite), et la seconde, la
saisonnalit annuelle (priode 12 - en haut droite). On peut galement noter, pour la sinusode de priode 24; que
plus lordre de la moyenne mobile est important, plus lamplitude diminue.
4.3
De la mme faon que pour la notion de stabilit, il existe deux faon de dnir le bruit blanc,
Dnition 23 On appelera bruit blanc faible toute suite ("t ; t 2 Z) telle que E ("t ) = 0 et V (" t) = 2 pour tout
t 2 Z et tel que
(h) = cov ("t ; "th ) = 0 pour h 6= 0:
Dnition 24 On appelera bruit blanc fort toute suite (" t; t 2 Z) telle que ("t ) soit i:i:d:
Proprit 17 Soit M la moyenne mobile dnie par (10) et ("t ) s BB 0; 2 pour t 2 Z. Le processus Xt = M ("t )
est stationnaire, centr (E (Xt ) = 0), tel que
X
h
m2
X
1
X (h) z = M (z) M
o M (z) =
iz i pour z 6= 0:
z
h
i= m1
m2
X
j "t+j ,
j= m1
Il est possible de prolonger cette somme sur Z en posant j = 0 pour j < m 1 ou j > m 2 . Aussi
Xt Xt+h =
+1
X
j= 1
j "t+j
+1
X
k "t+ h+k = 2
k=1
et donc
E (Xt Xt+h ) = 2
+1
X
+1
X
j;k=1
j k = 2
+1
X
j=1
k+h=j
51
j j h:
Arthur CHARPENTIER
X (h) z h
+1
X
+1
X
j jh z h = 2
h=1 j= 1
+1
X
jzj
j=1
+1
X
+1
X
+1
X
j j h zj z hj
h= 1 j= 1
+1
X
jh z hj = 2
h=1
jzj
j=1
+1
X
i=1
1
;
zi
X
E M Xt2
=
=
2j :
2
E (Xt )
j
Exemple 34 Dans le cas dune moyenne mobile dnie par M (Xt) = [Xt + Xt1 ] =2, alors = 1=2.
4.4
4.4.1
Considrons une srie mensuelle Xt compose dune tendance Zt, dun cycle saisonnier St, et dune perturbation "t ,
de faon additive Xt = Zt + St + "t :Lalgorithme suivant, en 4 tapes, permet de dsaisonnaliser la srie Xt
(1)
(1) Estimation de la tendance par moyenne mobile Zt = M (Xt ) ;o la moyenne mobile M est choisie de faon
reproduire au mieux la tendance, tout en liminant la composante saisonnire, et en rduisant la perturbation au
maximum
(1)
(1)
(2) Estimation de la composante saisonnire et de la perturbation t = S t +
"t : t = Xt Zt ;
( 1)
(1)
(1)
(1)
( 1)
La dicult ici est donc de bien choisir les deux moyennes mobiles utiliser M et M 0 .
4.4.2
Cette mthode propose deux moyennes mobiles dans le cas de donnes mensuelles. Lalgorithme devient
(1) Estimation de la tendance-par moyenne mobile 2 12
Zt(1) = M 2 12 (Xt ) ;
Cette moyenne mobile est paire, avec q = 6. Aussi, les 13 coecients sont 1=24; 1=12; 1=12; :::; 1=12; 1=24. Cette
moyenne mobile conserve les tendances linaires, limine les saisonnalits dordre 12 et minimise la variance de la
perturbation.
(2) Estimation de la composante saisonnire et de la perturbation t = S t + "t
(1)
(1)
= X t Zt ;
(3) Estimation de la composante saisonnire par moyenne mobile 3 3 sur chaque mois
(1)
(1)
( 1)
(1)
( 1)
St = M 33 t
et "t = t St :
52
Arthur CHARPENTIER
La moyenne mobile utilise ici est une moyenne mobile sur 5 termes, dite 33, dont les coecients sont 1=9; 2=9; 3=9; 2=9; 1=
qui conserve les composantes linaires. Les coecients sont alors normaliss de telle sorte que leur somme, sur toute
une priode de 12 mois, soit nulle.
b( 1) = S ( 1) M 212 S (1) ;
S
t
t
t
(4) Estimation de la srie corrige des variations saisonnires
b (1) = Xt Sb(1) :
X
t
t
Cette premire estimation de la srie corrige des variations saisonnires doit, par construction, contenir moins de
saisonnalit.
(5) Estimation de la tendance par moyenne mobile de Henderson sur 13 termes
(2)
bt :
Zt = M 13 X
Si les moyennes mobiles dHenderson nont pas de proprits spciales quant llimination de la saisonnalit, mais
elles lissent relativement bien, tout en conservant (localement ) les polynmes dordre 2.
(6) Estimation de la composante saisonnire et de la perturbation t
(2)
(2)
= X t Zt ;
(7) Estimation de la composante saisonnire par moyenne mobile 3 5 sur chaque mois
(2)
(2)
( 2)
(2)
( 2)
St = M 35 t
et "t = t St :
La moyenne mobile utilise ici est une moyenne mobile sur 7 termes, dite 35, dont les coecients sont 1=15; 2=15; 3=15; 3=1
qui conserve les composantes linaires. Les coecients sont alors normaliss de telle sorte que leur somme, sur toute
une priode de 12 mois, soit nulle.
b (2) = Xt Sb(2) :
X
t
t
Remarque 18 Cette mthode permet de reprer les points abrants dune srie.
Comme lont montr Gouriroux et Monfort (1990), cet algorithme peut se rsumer lapplication dun unique
moyenne mobile qui peut tre explicite matriciellement. Les 8 points de lalgorithme scrivent
(1)
(4)
(5)
(6)
(7)
(8)
(1)
(1)
2
=
M2 12 St
= M (3) (I M 212 ) (Xt )
(2)
bt = M13 I M (3) (I M 2 12 )2 (Xt )
Zt = M13 X
(2)
(2)
(2)
Sbt = St M2 12 St
= (I M 212 ) M ( 5) I M (3) (I M 2 12 )2 (Xt )
(3) St
(1)
Sbt
= M33 t
(1)
St
o M (3) est la moyenne mobile dnie sur 49 mois, dont les coecients sont
f1=9; 0; 0; :::; 0; 2=9; 0; ::::; 0; 3=9g
et M ( 5) est la moyenne mobile dnie sur 73 mois, dont les coecients sont
Arthur CHARPENTIER
Remarque 19 Un algorithme similaire existe pour des donnes trimestrielles, qui peut l aussi scrire sous la forme
dune seule moyenne mobile, portant sur 28 trimestres de part et dautre (7 ans l aussi). Dans le cas trimestriel,
lallure des coecients i est la suivante
4.4.3
-8
-5
-2
10
13
16
19
22
La mthode X12 ARIM A est fonde sur le mme principe que X11. Elle dcompose la srie selon un schma
additif (ou multiplicatif ) : tendance + cycle saisonnier + ala irrgulier. Les composantes sont obtenues lissue dun
processus itratif bas sur des lissages laide de moyennes mobiles1 4 .
Toutefois, la mthode X11 dcrite dans la partie prcdente pose des problmes en dbut et en n de srie. Une
des solutions est alors dutiliser un modle de type ARIM A pour faire de la prvision de la srie, et ainsi mieux
sajuster sur les bornes de lintervalle dtude. La mthode la plus simple pour prolonger les sries (X11 tel que le fait
SAS) est dutiliser des moyennes mobiles asymtriques, en particulier les moyennes mobiles de Musgrave. Toutefois,
les observations les plus rcentes sont moins ables que les donnes au centre.
Lextension X11 ARIM A (1975) puis X12 ARIM A a rsolu en partie ces problmes : la srie initiale est
modlise par un processus ARIM A, puis prolonge au dbut et la n. Lerreur quadratique des estimation est
ainsi minimise.
De plus des amliorations ont t ajoutes, par exemple pour prendre en compte de la saisonnalit non-rgulire.
En particulier il est possible de prendre en compte leet Pques, observ dans certaines srie. Pques est une fte ne
tombant pas la mme date tous les ans. De nombreux modles mathmatiques ont t mis en place pour prvoir
lavance la date des jours de Pques15 . Entre 1900 et 2100, le jour de Pques tombera ainsi entre le 22 mars et le 25
avril. Or cette fte entrane gnrallement un changement en niveau dans un certain nombre dactivit ( cause du
Vendredi Saint, et du Lundi de Pques fri ), et ceci a des rpercusions soit en mars, soit en avril (pour des donnes
mensuelles), soit au premier, soit au second semestre (pour des donnes trimestrielles ). Cet eet Pques a pu ainsi
tre mis en vidence sur des ventes en grande surface (chocolat, eurs ), mais aussi sur des nombres de mariages. Il
aura aussi un impact si lon considre des donnes mensuelles, obtenues comme agrgation de donnes journalires,
puisquil faudra intgrer une pondration fonction du nombre de jours ouvrables.
4.4.4
Larticle de Cleveland et Tiao Decomposition of Seasonal Time Series : a model for the Census X11 program (1976)
tudie sur des cas simples lapplication de la mthode X11.
1 4 Dans le cas dun schma multiplicatif : une moyenne mobile dordre 12 (donnes mensuelles ) fournit une premire estimation de la
tendance. La srie initiale est alors divise par cette estimation pour donner des rapports SI (saisonnalit/irrgulier). On applique alors
une moyenne mobile 3 3 (par exemple) chaque mois pour liminer la composante irrgulire.
1 5 Voir Gardner Mathematical Games (1981), Scientic American (Fvrier 81) pour plus dinformation sur les dirents algorithmes.
54
4.4.5
Arthur CHARPENTIER
Considrons ici une srie trimestrielle St1 , observe sur 12 ans, et reprsente ci-dessous gauche,
300
300
280
280
260
260
240
240
220
220
200
200
180
180
160
160
90
91
92
93
94
95
96
97
98
99
00
01
90
91
92
93
94
95
96
S1
S1
97
98
99
00
01
S2
Appliquons cette srie un ltre moyenne mobile de faon dsaisonnliser la srie : St2 = M 22 S 1t , reprsente
ci-dessus droite. La srie ainsi obtenue est alors tudie attentivement an
de reprer des points abrants. Pour cela,
on considre la composante saisonnire, St3 = S 1t S2t = St1 M 22 St1 . An de dnir une courbe de rfrence,
considrons la srie de type Buys-Ballot associe, cest dire dnie par la moyenne des composantes saisonnires. S 4t
prend alors 4 valeurs, suivant la valeur de t [4] :
8 3
3
+ S 3199201 + ::: + S200101
>
> S199101
=11 si t est au premier trimestre
<
3
3
3
S
+
S
+
:::
+
S
4
199102
199202
200102
3
=11 si t est au deuxime trimestre
St =
3
3
S
+
S
+
:::
+
S
>
199003
199103
200003
>
=11 si t est au troisime trimestre
: 3
3
S199004 + S 3199104 + ::: + S200004
=11 si t est au quatrime trimestre
Les deux composantes saisonnires ainsi dnies sont reprsentes ci-dessous gauche, ainsi que la dirence St5 =
St4 St3 , droite
80
30
60
20
40
10
20
0
0
-10
-20
-40
-20
90
91
92
93
94
95
96
S3
97
98
99
00
01
90
91
92
93
94
95
96
97
98
99
00
01
S5
S4
En se xant un seuil a priori, on peut reprer trois points abrants, au sens o St5 est relativement grand. Ces
points seront alors exclus de lchantillon : on remplace St1 = S 2t +S 3t par St7 = S2t + St4 pour les trois valeurs abrantes
repres. La comparaison entre St1 et St7 est prsente ci-dessous gauche. Cette srie, corrige des valeurs aberrantes,
est alors liss
300
300
280
280
260
260
240
240
220
220
200
200
180
180
160
90
91
92
93
94
95
S1
96
97
98
99
00
160
01
90
91
92
93
94
95
S1
S7
96
97
98
99
00
01
S8
Le graphique ci-dessous gauche compare la srie lisse obtenue sur la srie brute (en trait plein ), et sur la srie corrige
des valeurs aberrantes (en pointills ). A partir de srie lisse, S8t , on peut en dduire la composante saisonnire, comme
55
Arthur CHARPENTIER
dirence avec la srie initiale, St9 = S 1t St8 . Comme le sugre le graphique ci-dessous droite, il est possible de lisser
cette srie an de dgager la vraie composante saisonnire :
80
230
60
220
40
20
210
0
200
-20
190
90
91
92
93
94
95
S2
96
97
98
99
00
-40
01
90
91
92
93
94
S8
95
96
S9
97
98
99
00
01
S10
Comme le montre le graphique ci-dessus, gauche, lutilisation du lissage par moyenne mobile permet de reprer des
points extrmes et aberrants (au sens statistiques, car ils peuvent avoir une explication exogne : mto, campagnes
de publicit...etc.), et en corrigeant la srie initiale en excluant ces points, on peut mieux lisser la srie.
4.5
Le modle T RAM O=SE AT S 1 6 est bas sur lutilisation des modles ARIM A, et a t dvelopp par Maravall et
Gomez, suite lalgorithme de Burman en 1980: Lalgortihme est alors le suivant :
1) un modle ARIM A est a just automatiquement
2) les points aberrants sont identis : ces deux procdures sont faites par le module T RAM O
3) le module SE AT S calcule la densit spectrale de la srie linarise (par le modle ARIM A)
4) la srie est dcompose en un cycle et une tendance saisonnire : utilisation du ltre de Wiener-Kolmogorov17
Les hypothses sont que la srie linarise qui est traite par SEAT S peut scrire Zt = St + Nt , o les deux
composantes sont indpendantes : les deux sries suivent des modles ARIM A (inconnu) dont les poslynmes
autorgressifs respectifs nont pas de racine commune.
Parmi les algorithmes rcents de dsaisonnalisation, on peut rsumer la littrature suivant le schma suivant
RECHERCHE DES COMPOSANTES DE SERIES TEMPORELLES
MODELES
IMPLICITES
MODELES
EXPLICITES
MODELES
STOCHASTIQUES
GLOBAUX
MODELES
DETERMINISTES
LOCAUX
BV4, DAINTIES
MODELES
STRUCTURELS
MODELES
ARIMA
STAMP
SEATS
1 6 T RAMO
signie T ime series Regression with ARIMA noise, Missing observations and Outliers.
ltre WK est dtaill dans Applied Time Series Analysis : M odelling, Forecasting, Unobserved Components Analysis and the
Wiener-Komlmogorov Filter de C. Planas (1997)
1 7 Le
56
Arthur CHARPENTIER
Les mthodes de lissages consistent extrapoler une srie en vue de faire de la prvision. Or comme on le voit sur
lexemple ci-dessous, une extrapolation simple (linaire en loccurence) dpend fortement du type de rsultats que lon
cherche avoir : prvision court, moyen, ou long terme
CT
MT
LT
Ces trois mthodes dirent suivant le poids que lon accorde aux observations passes.
5.1
On donne un poids dautant moins important que les observations sont loins (dans le pass), avec une dcroissance
exponentielle :
- proche de 1 : prise en compte de tout le pass
- proche de 0 : prise en compte davantage des valeurs rcentes (plus sensible aux uctuations )
57
5.1.1
Arthur CHARPENTIER
bT = X
b T 1 + [1 ] XT X
bT 1
X
=
(11)
bT 1 = XT + [1 ] X
b T 1
[1 ] XT + X
FT +1 = XT + (1 ) FT
bT peut tre vu comme une rgression sur une constante, avec des pondrations exponentielles
Proprit 19 X
Preuve. Le programme de minimisation
min
c
c=
b
bT = b
et pour T assez grand X
c:
5.1.2
8
1
< TX
j= 0
j (Xtj c)
9
=
(12)
T 1
1 X j
XT j
1 T j=0
(13)
Au del des mthodes qualitative de rigidit ou de souplesse du modle aux uctuations conjoncturelles, il est possible
dutiliser des mthodes de type minimisation de la somme des carrs des erreurs de prvison :
8
2
32 9
>
>
T
t1
<X
=
X j
b
4Xt+1 (1 )
= arg min
Xtj 5
>
>
: t =1
;
j=0
5.1.3
2 (1 ) h h
2
(; ; h) =
+
1+
(1 + ) (1 )
=-0.5
2.5
2.5
3.5
=0.0
=0.4
1.5
=0.0
2
1.5
=-0.5
=0.7
=0.4
1
=0.7
0.5
0.5
=0.9
=0.9
0
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
0.1
0.2
0.3
0.4
0.5
0.6
0.7
pour < 1=3, lerreur de prvision dcroit avec ; et pour > 1=3, lerreur crot avec :
58
0.8
0.9
5.1.4
Arthur CHARPENTIER
Exemple dapplication
J AN
1293
1364
F EB
1209
1330
M AR
1205
1377
AP R
1273
1332
M AY
1220
J UN
1290
JU L
1243
AU G SE P
1203 1390
OC T
1360
N OV
1353
DE C
1343
En septembre, une modication structurelle (nouvelle unit de production) a provoqu un saut des ventes. Les
mthodes de lissage permettent defectuer de la prvision en intgrant ce genre de rupture. Une moyenne arithmtique
(non-pondre, note y) conduirait sous-estimer les valeurs futures : il est alors naturel dintroduire des poids plus
importants pour les valeurs rcentes. La prvision horizon 1 est alors
T 1
T
1
T
1
X
X
1 X
i
y T (1) =
yT i et ybT (1) =
[1 ] y T i =
[1 ] i yT i pour ; 2 ]0; 1[ et = 1
T i=0
i=0
i=0
cette dernire valeur tant obtenue par lissage exponentiel (simple). Nous noterons ici b
y1 ; :::; b
yT la srie lisse, et
F 1 ; :::; F T la srie des valeurs prdites.
Mise en place de lalgorithme ( x) Pour la premire valeur (T = 0), on considre comme valeur initiale une
moyenne des premires valeurs observes. EViews considre une moyenne sur les 8 premiers mois,
F1 = b
y0 =
1
(1293 + ::: + 1203) = 1242
8
F2 = b
y1 = y1 + (1 ) F 1 = 0:3 1293 + 0:7 1242 = 1257:3
puis
Comme on peut le voir, nous estimation pour la date 2 tait de 1257:3. Or la vraie valeur tait plus faible, savoir 1209.
Aussi, pour la date 3, la prvision sera une correction de ce 1257:3 en prenant en compte (avec un poids correspondant
la valeur ) lerreur qui avait t faite : en loccurence, F 3 sera plus faible que F 2 (la dirence tant [F2 y 2 ])
1
2
3
4
5
yj1
1293
1209
1205
1273
1220
F j1
1242:00
1257:30
1242:81
1231:47
Fj
1242:00
1257:30
1242:81
1231:47
1243:93
J AN
1293
1242
1242
FEB
1209
1257
1278
M AR
1205
1243
1230
AP R
1273
1231
1212
M AY
1220
1244
1255
59
JU N
1290
1237
1230
JUL
1243
1253
1272
AUG
1203
1250
1252
SE P
1390
1236
1218
OCT
1360
1282
1338
N OV
1353
1305
1353
DE C
1343
1320
1353
Arthur CHARPENTIER
1400
1350
1300
1250
1200
98:01
98:03
98:05
CA
98:07
98:09
LISSAGE07
98:11
99:01
99:03
LISSAGE03
On peut noter que plus est proche de 1, plus la courbe lisse colle aux donnes (b
y j est proche de y j ) : pour = 1,
la prvision F j+1 sera la dernire valeur observe (y j ). Un coecient de lissage plus faible (par exemple = 0:3)
permet en revanche de bien lisser les alas importants de la srie. La srie lisse sadapte galement au changement
de niveau observ en septembre. Toutefois, cette adaptation se fait dautant plus lentement que est faible : les
prvisions sont alors biaises (sous-estimation dans cet exemple) pendant la priode dadaptation, comme on peut le
voir sur le graphique ci-dessous : ds octobre 1998, la prvision faite avec un coecient de 0:7 avait atteint un niveau
correct, alors que la prvision avec une pondration de 0:3 est plus lente (ce qui rend la prvision moins sensible
un choc exogne : si cette variation en septembre navait t quun choc, une faible pondration aurait permis de ne
pas le prendre en compte).
On peut noter que le lissage dpend non seulement de mais aussi de la valeur initale choisie. Comme le montre
le graphique de gauche, on observe une convergence (asymptotique ), avec des valeurs trs proches pour T pro che
de 16. En choissant une valeur intiale proche des premires valeurs de la srie (b
y0 = y 1 ou yb0 moyenne des 2 ou 3
premires observations), on saperoit que la courbe observe et les courbes lisse sont quasiment confondues au bout
de 10 mois (cette valeur dpendant de : la convergence est dautant plus rapide que est grand ). Le graphique cidessous correspond plusieurs initialisations : F 1 = y1 (prvision parfaite - (1)), F1 = (y 1 + y2 ) =2 (moyenne des deux
premires valeurs - (2)), F1 = (y 1 + y 2 + y3 ) =2 (moyenne des trois premires valeurs - (3)) et F1 = (y1 + ::: + yn ) =n
(moyenne de lchantillon - (4))
1400
1350
CA
LISSAGE03_1
LISSAGE03_2
LISSAGE03_3
LISSAGE03_4
1300
1250
1200
98:01 98:03 98:05 98:07 98:09 98:11 99:01 99:03
Remarque 22 Il convient de faire attention : dans la littrature, les courbes lisses sont soit Ft , soit ybt1 . Certains
auteurs dcallent ainsi (dans les tableaux ou les graphiques) la courbe lisse.
A retenir 4 La formule itrative pour construire la srie lisse de Xt pour t = 1; :::; N est la suivante
8
< F 0 = X1 ou [X1 + ::: + Xp ] =p
F t+1 = Xt + (1 ) F t pour 0 t N
:
F t = F N+1 pour t N + 1
Choix de la constante de lissage Ce choix peut relever de considrations empiriques : des fortes pondrations
pour les valeurs rcentes ( lev) donne de meilleures prvisions court terme qu long terme. Toutefois, une des
mthodes les plus utilise est la minisation des moindres carrs des erreurs (prvision/ralisation ) un horizon h = 1.
60
Arthur CHARPENTIER
Lalgorithme (13) donne ici un paramtre = 0:418, qui correspond une somme des erreurs de prvision de 48178,
cest dire un cart type de lerreur valant 54:874.
1400
1350
1300
1250
1200
98:01
98:03
98:05
98:07
98:09
LISSAGEOPT
98:11
99:01
99:03
CA
5.2
h
i
2
b T (h) 1:96 X C h o C 2 = 1 + 1
X
1 + 4 + 5 2 + 2h (1 ) (1 + 3) + 2h 2 (1 )
h
3
(1 + )
Le lissage exponentiel simple est adapt des sries pouvant tre ajuste par une constante au voisnage de T . Le
principe de lissage exponentiel double permet de faire un ajustement par une droite, savoir approcher Xt par Y t o
Y t = A + (t T ) B
La prvision horizon h scrit
b T (h) = A
b (T ) + h B
b (T )
FT +h = X
(14)
j=0
b (T ) = 2S1 (T ) S2 (T ) et B
b (T ) = 1 [S1 (T ) S2 (T )]
A
en posant
S1 (t) = (1 )
S2 (t) =
(1 )
t
X1
k= 0
(1 )2
t1
X
k=0
t
X1 tk1
X
k=0
i+k Xt(k+i)
i=0
Pour obtenir la formule de mise jour ( lordre 1) permettant de passer de T T + 1, on peut utiliser le rsultat
suivant
61
Arthur CHARPENTIER
bT (1) = A
b (T ) + B
b (T ), alors, en T + 1
Proprit 20 Si la date T , F T +1 = X
8
i
h
< Ab (T + 1) = 1 2 XT + 1 X
b T (1) + A
b (T ) + B
b (T )
h
i
: B
b (T + 1) = B
b (T ) + 1 2 XT + 1 X
b T (1)
(15)
X T (1)
A (T )
T+1
Dans ce cas, les droites de prvision en T et en T + 1 sont les mmes, et la pente, en particulier, est inchange
b (T + 1) = B
b (T )).
(B
Remarque 24 Lintervalle de conance de la prvision est alors de la forme
s
2
bT (h) 1:96 X
X
2 1
5.2.2
Trim 1
9680
10738
10869
11108
11437
11507
Trim 2
9050
10100
10910
11034
11115
11352
11453
Trim 3
9380
10160
11058
11135
11424
11381
11561
Trim 4
9378
10469
11016
10845
10895
11401
Le lissage exponentiel double est trs proche du lissage exponentiel simple, sauf que lon fait un a justement au
voisinage de T non plus par une constante, mais par une droite. En fait, la srie (correspondant un indice) est une
srie croissante : la justement par lissage exponentiel simple sous-estimerait les valeurs ralises (graphique page
5.2.2) . Le programme de minimisation scrit ici
8
9
1
< TX
=
2
min
j (Xt j [AT + BT (T j )])
A;B :
;
j=0
1
yb yb2j
1 j
o les ybj1 et ybj2 sont obtenus rcursivement par deux lissages conscutifs,
1
1
ybj = yj + (1 ) b
yj
1 : lissage exponentiel simple de yi
2
1
2
ybj = b
yj + (1 ) b
yj1 : lissage exponentiel simple de yb1i
62
Arthur CHARPENTIER
Aj = y j + (1 ) [Aj 1 + Bj1 ]
o = 1 (1 )2 et =
(16)
Bj = [Aj Aj1 ] + (1 ) Bj1
2
Remarque 25 Aj et Bj sont unitiliss pour calculer b
yj , prvision horizon 1 faite la date j , soit Fj+1 :
Encore une fois, linitialisation de lalgorithme est important. Une mthode possible est de considrer comme valeur
initiale pour A1 la premire valeur y1 . La pente B1 peut alors tre choisie comme la pente moyenne entre la date 1 et
une date t0 , telle que B1 = [y t0 y 1] =t0 .
Dans le cas qui nous intresse on obtient la srie lisse suivante, en prenant comme constante de lissage = 0:384,
et comme valeurs initiales de A0 = y 1 et B0 la pente sur une priode de 10 observations (soient 9050 et 177) - laide
de la relation (16) ; et = 0:6205 et = 0:2376
yj
9050
9380
9378
9680
1982 2
1982 3
1982 4
1983 1
1982
1983
1984
1985
1986
1987
1988
Srie observe
Trim 1 Trim 2 Trim 3
9050
9380
9680
10100
10160
10738
10910
11058
10869
11034
11135
11108
11115
11424
11437
11352
11381
11507
11453
11561
Aj
9050:00
9112:73
9332:05
9421:11
Trim 4
9378
10469
11016
10845
10895
11401
1982
1983
1984
1985
1986
1987
1988
12000
12000
11500
11500
11000
11000
10500
10500
10000
10000
9500
9500
9000
83
84
85
CA
86
87
Bj
165:30
140:93
159:56
142:81
Fj+1
9215:30
9253:66
9491:61
9563:92
Trim 1
9564
10646
11295
11023
11095
11461
Srie lisse
Trim 2 Trim 3
9215
9254
9796
10189
10932
11143
11138
11166
11118
11159
11364
11412
11541
11524
Trim 4
9492
10372
11303
11234
11405
11443
9000
88
83
LISS_DOUBLE
84
85
CA
86
87
88
LISS_SIMPLE
A titre de comparaison, nous avons ajout droite le lissage exponentiel simple optimal qui aurait t obtenu sur les
mmes donnes. Ce lissage simple est relativement mal adapat ce type de donnes (croissantes) puisque nous allons
continuellement sous-valuer la vraie valeur en priode de croissance forte.
Supposons que la srie ait t observe jusquau troisime trimestre de 1987: La srie lisse jusqu cette date
reste la mme, et les prvisions pour les trimestres suivant aurait t obtenus en utilisant A = A19873 = 11412,
B = B 19873 = 47:02, et b
yT (h) = A + Bh
1987-4
1988-1
1988-2
1988-3
ralisation
11401
11507
11453
11561
prvision (double)
11459
11506
11553
11600
63
prvision (simple)
11352
11352
11352
11352
Arthur CHARPENTIER
85:1
85:3
86:1
CA
86:3
87:1
DOUBLE
87:3
88:1
88:3
SIMPLE
Les graphiques ci-dessous reprsentent limpact des valeurs initiales, avec gauche, un changement de A0 et droite un
changement de B0 . Comme on peut le remarquer, la justement se fait plus rapidement que pour le lissage exponentiel
simple
12000
12000
11500
11500
11000
11000
10500
10500
10000
10000
9500
9500
9000
9000
8500
83
84
85
86
CA
LISS_DOUBLE
87
88
83
LISS_A1
LISS_A2
84
85
CA
LISS_DOUBLE
86
87
88
LISS_B1
LISS_B2
A retenir 5 La formule itrative pour construire la srie lisse de Xt pour t = 1; :::; N est la suivante
8 1
>
> S02 = X1 ou [X1 + ::: + Xp ] =p
>
>
>
> S01 = 0
>
>
= Xt + (1 ) St1 pour 0 t N
>
> St+1
<
2
St+1 = St1 + (1 ) St2 pour 0 t N
1
2
>
0tN
> At +1 = 2St+1 S t+1 pour
>
1
2
>
>
B
=
S
=
(1
)
t+1
t+1
t+
1
>
>
>
>
F
=
A
+
B
pour
0
tN
t+1
t+1
t+1
>
:
Ft = AN +1 + (t N 1) BN+1 pour t N + 1
5.3
Cette gnralisation a t propose par Brown en 1962, permettant dajuster au voisinage de T une fonction plus
complexe quune fonction ane. La rsolution de ce problme repose sur la notion de vecteurs de fonctions matrice
de transition xe.
0
Dnition 27 Le vecteur f (t) = [f1 (t) ; :::; fn (t)] , o t 2 Z est dit matrice de transition xe sil existe une
matrice A rgulire telle que
f (t) = Af (t 1) pour tout t 2 Z
La mthode du lissage exponentiel gnralis consiste a juster au voisinage de T de la srie Xt une fonction
(t T ) de la forme
n
X
(t) =
i fi (t) o f (:) est matrice de transition xe
i=1
64
Arthur CHARPENTIER
(1) Les fonctions constantes - (t) = c, obtenues avec f (t) = 1 et A = 1. Dans ce cas, on retrouve le principe
de lissage exponentiel simple,
0
(2) Les fonctions linaires - (t) = + t, obtenues avec f (t) = [1; t] de matrice de transition
1 0
1
1 0
1
A=
puisque
=
1 1
t
1 1
t 1
Dans ce cas, on retrouve le principe de lissage exponentiel double,
(3) Les fonctions polynmiales de degr p - Cette famille est obtenue en prenant comme base une base de
R p (X) (espace des polynmes de degr infrieur ou gal p). En particulier, on peut choisir la base
1
Bp = P k (t) = t (t 1) ::: (t k + 1) ; k = 1; :::; p + 1
k!
obtenue laide du triangle de Pascal, et dnie par rcurence par
(4) Les fonctions sinusodales - Les fonctions (t) = sin !t + sin !t sont obtenues en prenant f (t) =
[sin !t; cos !t]0 , et dans ce cas
cos !
sin !
A=
sin ! cos !
(6) Les fonctions exponentielles - Les fonctions (t) = exp (t) sont obtenues en prenant f (t) = exp (t) et
dans ce cas A = exp ().
Cette mthode de lissage se met en place de la faon suivante.
De la mme faon que (14), le programme doptimisation scrit
8
9
1
< TX
=
2
min
j (Xtj f 0 (j) a)
(17)
a :
;
j=0
6
7
6
7 6
7
..
..
..
T 1
x = 4 ... 5 , F = 4
=
et
=
diag
1;
1=
;
:::;
1=
5
4
5
.
.
.
X1
f1 (T + 1)
f n (T + 1)
f 0 (T + 1)
Le programme (17) correspond la regression (linaire) de x sur les colonnes de F , associe la matrice de covariance
-. On en dduit que la solution (17) est unique, et est donne par
1 0
1
a (T ) = F 0 - 1 F
b
F -y = [M (T )] Z (T )
o
M (T ) = F 0 - 1 F =
T
1
X
j=0
T
1
X
j=0
j f (j) XT j
b T (h) = f 0 (h) b
X
a (T )
65
5.3.1
Arthur CHARPENTIER
ba (T + 1) = XT +1 M 1 f (0) + M 1 A1 M ba (T )
ba (T + 1) = XT +1 + b
a (T ) o
= M 1 f (0)
= M 1 A1 M
o les matrices et sont indpendantes de T . Cette relation peut se mettre sous la forme suivante, proche de (11),
h
i
b T (1)
ba (T + 1) = A0 b
a (T ) + XT + 1 X
5.4
5.4.1
Cette mthode est une gnralisation de la mthode de lissage exponentiel mais avec un point de vue dirent de celui
introduit dans le lissage exponentiel gnralis. De la mme faon que pour le lissage exponentiel double, lajustement
se fait de faon linaire au voinage de T , la nuance se faisant au niveau de formules de mise jour, direntes de (15)
:
8
h
i
< Ab (T + 1) = (1 ) XT +1 + A
b (T ) + B
b (T ) o 0 < < 1
h
i
(18)
: B
b (T + 1) = (1 ) A
b (T + 1) A
b (T ) + B
b (T ) o 0 < < 1
La premire relation est une moyenne pondre de deux informations sur A (T ), correspondant au niveau de la srie
b (T ) + B
b (T )): La seconde relation sinterprte comme
la date T : lobservation XT +1 et la prvision faite en T (A
une moyenne pondre de deux informations sur B (T ), correspondant la pente de la srie la date T : la dirence
entre les niveaux estims en T et T + 1; et la pente estime en T .
Toutefois, ces deux relations ne peuvent tre utilise quaprs initialisation, que lon fera gnralement de la faon
b (2) = X2 et B
b (2) = X2 X1 . La prvision horizon h faite la date T est donne par
suivante : A
bT (h) = A
b (T ) + hB
b (T )
X
Cette mthode peut tre vue comme une gnralisation du lissage exponentiel double, qui ne faisait intervenir
quun coecient, (ou ). Cette dernire mthode correspond au cas particulier
2
= 2 et = 1
(1 )
2
2 =
1
+
1
84
85
CA
86
LISS_HW
66
87
88
5.4.2
Arthur CHARPENTIER
On suppose ici que la srie (Xt) peut tre approche au voisinage de T par la srie
Yt = A + (t T ) B + St
o St est un facteur saisonnier. Les formules de mise jour scrire de la faon suivante, o s est le facteur de
saisonnalisation (ou le nombre de saisons : s = 4 pour des donnes trimestrielles ou s = 12 pour des donnes
mensuelles)
8
h
i
>
b (T + 1) = (1 ) [XT +1 ST +1 s] + A
b (T ) + B
b (T ) o 0 < < 1 (lissage de la moyenne)
>
A
>
<
h
i
b (T + 1) = (1 ) Ab (T + 1) A
b (T ) + B
b (T ) o 0 < < 1
B
(lissage de la tedance)
>
h
i
>
>
: SbT +1 = (1 ) XT +1 A
b (T + 1) + ST +1 s o 0 < < 1
(lissage de la saisonnalit)
et la prvision horizon h (1 h s) scrit
bT (h) = Ab (T ) + hB
b (T ) + S
bT + k+ s
X
A gauche, on voit comment trouver loption de lissage exponentiel. EViews propose alors plusieurs mthodes (fentre
au centre) : lissage exponentiel simple, double, ou de Holt Winters. Les rsultats sont alors prsents sous la forme de
droite. EViews donne ici les paramtres (alpha) et (beta), ainsi que la variance de lerreur de prvision.
5.5
Comme nous allons le voir ici, les mthodes de lissage, an de faire de la prvision, peuvent trs facilement tre mises
en oeuvre, en particulier sur des tableurs (Excel par exemple). Nous allons voir comment faire de la prvision sur des
donnes comportant de la saisonnalit, laide des mthodes de lissage exponentiel.
67
5.5.1
Arthur CHARPENTIER
VENTES
DATE
VENTES
SAISONNALITE
VENTES CVS
Jan-99
2,853,123
MOYENNE
DIFFERENCE
SAISONNALITE
126,280
VENTES CVS
2,726,843
Jan-99
2,853,123
126,280
2,726,843
Feb-99
2,797,469
78,024
2,719,445
Feb-99
2,797,469
78,024
2,719,445
Mar-99
2,773,701
20,897
2,752,804
Apr-99
May-99
2,735,895
2,695,410
-62,580
-121,586
2,798,475
2,816,996
Mar-99
Apr-99
2,773,701
2,735,895
20,897
-62,580
2,752,804
2,798,475
May-99
2,695,410
-121,586
2,816,996
Jun-99
2,652,799
-169,498
2,822,297
Jun-99
2,652,799
-169,498
2,822,297
Jul-99
Aug-99
2,705,817
2,795,698
2,844,752
2,864,431
-138,935
-68,733
-138,159
-107,685
2,843,976
2,903,383
Sep-99
2,955,251
2,885,559
69,692
68,668
2,886,583
Oct-99
Nov-99
3,007,658
3,020,084
2,904,892
2,920,910
102,766
99,174
104,799
97,431
2,902,859
2,922,653
Dec-99
3,032,833
2,934,917
97,916
103,410
2,929,423
Jan-00
Feb-00
3,075,696
3,047,187
2,947,308
2,954,786
128,388
92,401
126,280
78,024
2,949,416
2,969,163
Mar-00
3,031,057
2,960,304
70,753
20,897
3,010,160
Apr-00
May-00
2,942,528
2,873,213
2,967,190
2,972,169
-24,662
-98,956
-62,580
-121,586
3,005,108
2,994,799
Jun-00
2,811,176
2,975,988
-164,812
-169,498
2,980,674
Jul-00
Aug-00
2,844,805
2,836,192
2,978,711
2,979,352
-133,906
-143,160
-138,159
-107,685
2,982,964
2,943,877
Sep-00
3,047,197
2,976,077
71,120
68,668
2,978,529
Oct-00
Nov-00
3,080,972
3,066,260
2,970,664
2,967,094
110,309
99,166
104,799
97,431
2,976,173
2,968,829
Dec-00
3,078,322
2,965,940
112,382
103,410
2,974,912
Jan-01
Feb-01
3,095,541
3,042,742
2,967,892
2,975,618
127,649
67,124
126,280
78,024
2,969,261
2,964,718
Mar-01
2,956,884
2,982,365
-25,481
20,897
2,935,987
Apr-01
May-01
2,886,788
2,843,283
2,983,808
2,984,021
-97,020
-140,738
-62,580
-121,586
2,949,368
2,964,869
Jun-01
2,813,409
2,984,116
-170,707
-169,498
2,982,907
Jul-01
Aug-01
2,889,432
2,976,979
-138,159
-107,685
3,027,591
3,084,664
Sep-01
3,068,328
68,668
Oct-01
Nov-01
3,094,477
3,057,867
Dec-01
3,088,998
Moyenne
Ecart-Type
2,932,641
133,328
MOBILE
Rapport
MOYENNE
MOBILE
DIFFERENCE
Jul-99
2,705,817
2,844,752
-138,935
-138,159
2,843,976
Aug-99
2,795,698
2,864,431
-68,733
-107,685
2,903,383
Sep-99
2,955,251
2,885,559
69,692
68,668
2,886,583
Oct-99
3,007,658
2,904,892
102,766
104,799
2,902,859
Nov-99
3,020,084
2,920,910
99,174
97,431
2,922,653
Dec-99
Jan-00
3,032,833
3,075,696
2,934,917
2,947,308
97,916
128,388
103,410
126,280
2,929,423
2,949,416
Feb-00
3,047,187
2,954,786
92,401
78,024
2,969,163
Mar-00
3,031,057
2,960,304
70,753
20,897
3,010,160
Apr-00
2,942,528
2,967,190
-24,662
-62,580
3,005,108
May-00
Jun-00
2,873,213
2,811,176
2,972,169
2,975,988
-98,956
-164,812
-121,586
-169,498
2,994,799
2,980,674
Jul-00
Aug-00
2,844,805
2,836,192
2,978,711
2,979,352
-133,906
-143,160
-138,159
-107,685
2,982,964
2,943,877
Sep-00
3,047,197
2,976,077
71,120
68,668
2,978,529
Oct-00
Nov-00
3,080,972
3,066,260
2,970,664
2,967,094
110,309
99,166
104,799
97,431
2,976,173
2,968,829
Dec-00
Jan-01
3,078,322
3,095,541
2,965,940
2,967,892
112,382
127,649
103,410
126,280
2,974,912
2,969,261
Feb-01
Mar-01
Apr-01
3,042,742
2,956,884
2,886,788
2,975,618
2,982,365
2,983,808
67,124
-25,481
-97,020
78,024
20,897
-62,580
2,964,718
2,935,987
2,949,368
May-01
Jun-01
2,843,283
2,813,409
2,984,021
2,984,116
-140,738
-170,707
-121,586
-169,498
2,964,869
2,982,907
2,999,660
Jul-01
Aug-01
Sep-01
2,889,432
2,976,979
3,068,328
-138,159
-107,685
68,668
3,027,591
3,084,664
2,999,660
104,799
97,431
2,989,678
2,960,436
Oct-01
Nov-01
3,094,477
3,057,867
104,799
97,431
2,989,678
2,960,436
103,410
2,985,588
Dec-01
3,088,998
103,410
2,985,588
2,932,641
85,190
Moyenne
4.546%
2.905%
2,932,641
2,932,641
Ecart-Type
133,328
85,190
Rapport
4.546%
2.905%
Pour lisser cette srie, nous avons utilis une moyenne mobile permettant dannuler une saisonnalit annuelle (priode
12) : M 212 . En particulier
1 1
1
M Xt =
Xt6 + Xt 5 + Xt4 + ::: + Xt + ::: + Xt+4 + Xt+ 5 + Xt+6
12 2
2
et ainsi, sur lexemple ci-dessus, on peut noter que
1 2 797 469
3 047 187
2 864 431 =
+ 2 773 701 + 2 735 895 + ::: + 2 795 698 + ::: + 3 032 833 + 3 075 696 +
12
2
2
La composante saisonnire est alors obtenue comme dirence entre la srie brute Xt et la srie dsaisonnalise
M Xt . Cette srie correspond dans le tableau ci-dessus la variable DIFFERENCE. Par exemple,
92 401 = 3 047 187 2 954 786
On considre alors la dirence moyenne pour chaque mois :
JAN
FEV
1 =
2 =
1
2
1
2
1
(69 692 + 71 120) = 70 406
2
On peut noter que la somme de ces dirences moyennes i ne vaut pas 0 : on va alors normaliser les i de faon
ce que leur somme soit nulle. On considre alors
i = i
12
1 X j
12
j=1
Dans lexemple considre, la somme des i valait 20 865 : aussi, on va dnir i = i 20 865=12. Cette srie i va
alors constituer la composante saisonnire de la srie (Xt). Par exemple, la saisonnalit pour le mois de mars est 62
68
Arthur CHARPENTIER
580. Et partir de l, on construit la srie corrige des variations saisonnires (CV S) comme dirence entre (Xt ) et
la composante saisonnire du mois correspondant.
Cest partir de cette srie corrige des variations saisonnires que lon va faire de la prvision. La mthodologie
est alors la suivante. On spare la srie initiale (Xt) de la faon suivante :
Xt = Z t + t = srie CV S + composante saisonnire
et la prvision sera alors faite en considrant
bt = Z
bt + t
X
On extrapole la srie corrige des variations saisonnires (par lissage ), et on ra joute ensuite la composante saisonnire.
5.5.2
Lissage linaire
La mthode la plus simple pour faire de la prvision sur une srie dsaisonnalise est dutiliser une rgression linaire,
DATE
VENTES
2,853,123
2,797,469
2,773,701
2,735,895
SERIE
CVS
2,726,843
2,719,445
2,752,804
2,798,475
Jan-99
Feb-99
Mar-99
Apr-99
ERREUR
PREVISION
PREVISION
(constante)
-94,064
3,058,921
-107,972
3,010,665
-80,493
2,953,538
-41,331
2,870,061
May-99
Jun-99
Jul-99
Aug-99
Sep-99
Oct-99
Nov-99
Dec-99
Jan-00
Feb-00
Mar-00
Apr-00
May-00
2,695,410
2,652,799
2,705,817
2,795,698
2,955,251
3,007,658
3,020,084
3,032,833
3,075,696
3,047,187
3,031,057
2,942,528
2,873,213
2,816,996
2,822,297
2,843,976
2,903,383
2,886,583
2,902,859
2,922,653
2,929,423
2,949,416
2,969,163
3,010,160
3,005,108
2,994,799
2,846,105
2,852,615
2,858,914
2,865,424
2,871,933
2,878,232
2,884,742
2,891,041
2,897,551
2,904,060
2,910,150
2,916,659
2,922,958
-29,110
-30,317
-14,938
37,960
14,650
24,627
37,911
38,382
51,866
65,103
100,010
88,449
71,840
-121,586
-169,498
-138,159
-107,685
68,668
104,799
97,431
103,410
126,280
78,024
20,897
-62,580
-121,586
2,724,520
2,683,116
2,720,755
2,757,738
2,940,601
2,983,031
2,982,173
2,994,451
3,023,830
2,982,084
2,931,047
2,854,079
2,801,373
-29,110
-30,317
-14,938
37,960
14,650
24,627
37,911
38,382
51,866
65,103
100,010
88,449
71,840
2,811,055
2,763,142
2,794,482
2,824,956
3,001,308
3,037,439
3,030,072
3,036,051
3,058,921
3,010,665
2,953,538
2,870,061
2,811,055
-115,645
-110,343
-88,665
-29,258
-46,057
-29,781
-9,988
-3,218
16,775
36,522
77,519
72,467
62,158
Jun-00
Jul-00
Aug-00
Sep-00
Oct-00
Nov-00
Dec-00
Jan-01
Feb-01
Mar-01
Apr-01
May-01
Jun-01
2,811,176
2,844,805
2,836,192
3,047,197
3,080,972
3,066,260
3,078,322
3,095,541
3,042,742
2,956,884
2,886,788
2,843,283
2,813,409
2,980,674
2,982,964
2,943,877
2,978,529
2,976,173
2,968,829
2,974,912
2,969,261
2,964,718
2,935,987
2,949,368
2,964,869
2,982,907
2,929,468
2,935,767
2,942,277
2,948,786
2,955,085
2,961,595
2,967,894
2,974,404
2,980,913
2,986,793
2,993,302
2,999,601
3,006,111
51,207
47,197
1,601
29,743
21,088
7,234
7,018
-5,142
-16,195
-50,806
-43,934
-34,733
-23,203
-169,498
-138,159
-107,685
68,668
104,799
97,431
103,410
126,280
78,024
20,897
-62,580
-121,586
-169,498
2,759,969
2,797,608
2,834,591
3,017,454
3,059,884
3,059,026
3,071,304
3,100,683
3,058,937
3,007,690
2,930,722
2,878,016
2,836,612
51,207
47,197
1,601
29,743
21,088
7,234
7,018
-5,142
-16,195
-50,806
-43,934
-34,733
-23,203
2,763,142
2,794,482
2,824,956
3,001,308
3,037,439
3,030,072
3,036,051
3,058,921
3,010,665
2,953,538
2,870,061
2,811,055
2,763,142
48,034
50,323
11,236
45,889
43,533
36,188
42,271
36,620
32,077
3,346
16,727
32,228
50,267
Jul-01
Aug-01
Sep-01
Oct-01
Nov-01
Dec-01
Jan-02
2,889,432
2,976,979
3,068,328
3,094,477
3,057,867
3,088,998
3,027,591
3,084,664
2,999,660
2,989,678
2,960,436
2,985,588
3,012,410
3,018,920
3,025,429
3,031,729
3,038,238
3,044,537
3,051,257
15,181
65,745
-25,769
-42,050
-77,802
-58,949
-138,159
-107,685
68,668
104,799
97,431
103,410
126,280
2,874,251
2,911,234
3,094,097
3,136,527
3,135,669
3,147,947
3,177,536
15,181
65,745
-25,769
-42,050
-77,802
-58,949
2,794,482
2,824,956
3,001,308
3,037,439
3,030,072
3,036,051
3,058,921
94,950
152,023
67,020
57,038
27,795
52,947
Feb-02
Mar-02
Apr-02
May-02
3,057,766
3,063,646
3,070,155
3,076,454
78,024
20,897
-62,580
-121,586
3,135,790
3,084,543
3,007,575
2,954,869
3,010,665
2,953,538
2,870,061
2,811,055
Jun-02
Jul-02
Aug-02
Sep-02
3,082,964
3,089,263
3,095,773
3,102,282
-169,498
-138,159
-107,685
68,668
2,913,466
2,951,104
2,988,087
3,170,950
2,763,142
2,794,482
2,824,956
3,001,308
Oct-02
Nov-02
Dec-02
Jan-03
Feb-03
Mar-03
3,108,582
3,115,091
3,121,390
3,127,900
3,134,409
3,140,289
104,799
97,431
103,410
126,280
78,024
20,897
3,213,380
3,212,522
3,224,800
3,254,180
3,212,433
3,161,186
3,037,439
3,030,072
3,036,051
3,058,921
3,010,665
2,953,538
ERREUR
PREVISION
-205,798
-213,196
-179,837
-134,166
DATE
VENTES
janv-99
fvr-99
mars-99
avr-99
mai-99
juin-99
juil-99
aot-99
sept-99
oct-99
nov-99
dc-99
janv-00
fvr-00
mars-00
avr-00
mai-00
juin-00
juil-00
aot-00
sept-00
oct-00
nov-00
dc-00
janv-01
fvr-01
mars-01
avr-01
mai-01
juin-01
juil-01
aot-01
sept-01
oct-01
nov-01
dc-01
janv-02
fvr-02
mars-02
avr-02
mai-02
juin-02
juil-02
aot-02
sept-02
oct-02
nov-02
dc-02
janv-03
fvr-03
mars-03
2 853 123
2 797 469
2 773 701
2 735 895
2 695 410
2 652 799
2 705 817
2 795 698
2 955 251
3 007 658
3 020 084
3 032 833
3 075 696
3 047 187
3 031 057
2 942 528
2 873 213
2 811 176
2 844 805
2 836 192
3 047 197
3 080 972
3 066 260
3 078 322
3 095 541
3 042 742
2 956 884
2 886 788
2 843 283
2 813 409
2 889 432
2 976 979
3 068 328
3 094 477
3 057 867
3 088 998
SERIE
CVS
2 726 843
2 719 445
2 752 804
2 798 475
2 816 996
2 822 297
2 843 976
2 903 383
2 886 583
2 902 859
2 922 653
2 929 423
2 949 416
2 969 163
3 010 160
3 005 108
2 994 799
2 980 674
2 982 964
2 943 877
2 978 529
2 976 173
2 968 829
2 974 912
2 969 261
2 964 718
2 935 987
2 949 368
2 964 869
2 982 907
3 027 591
3 084 664
2 999 660
2 989 678
2 960 436
2 985 588
ERREUR
PREVISION
PREVISION
(constante)
-94 064
3 058 921
-107 972
3 010 665
-80 493
2 953 538
-41 331
2 870 061
-29 110
2 811 055
-30 317
2 763 142
-14 938
2 794 482
37 960
2 824 956
14 650
3 001 308
24 627
3 037 439
37 911
3 030 072
38 382
3 036 051
51 866
3 058 921
65 103
3 010 665
100 010
2 953 538
88 449
2 870 061
71 840
2 811 055
51 207
2 763 142
47 197
2 794 482
1 601
2 824 956
29 743
3 001 308
21 088
3 037 439
7 234
3 030 072
7 018
3 036 051
-5 142
3 058 921
-16 195
3 010 665
-50 806
2 953 538
-43 934
2 870 061
-34 733
2 811 055
-23 203
2 763 142
15 181
2 794 482
65 745
2 824 956
-25 769
3 001 308
-42 050
3 037 439
-77 802
3 030 072
-58 949
3 036 051
3 058 921
3 010 665
2 953 538
2 870 061
2 811 055
2 763 142
2 794 482
2 824 956
3 001 308
3 037 439
3 030 072
3 036 051
3 058 921
3 010 665
2 953 538
ERREUR
PREVISION
-205 798
-213 196
-179 837
-134 166
-115 645
-110 343
-88 665
-29 258
-46 057
-29 781
-9 988
-3 218
16 775
36 522
77 519
72 467
62 158
48 034
50 323
11 236
45 889
43 533
36 188
42 271
36 620
32 077
3 346
16 727
32 228
50 267
94 950
152 023
67 020
57 038
27 795
52 947
Pour cela, on part des sries de base Xt (srie brute) et Zt (srie corrige des variations saisonnires ). Les sries sur
la gauche donne lapproximation linaire. Pour cela, on rgresse la srie Zt sur les sries I (cest dire la constante)
et t (la srie temps ), et lon obtient
APPROX. LINEAIRE : Zt = A + Bt + "t avec A = 209:98, B = 4772213
et o "t est la sries des erreurs (ERREUR)1 8 . En particulier
2 858 914 = 4 772 213 + 209:98 36 342 (t = 36 342correspond au 1er juillet 1999)
38 382 = 2 929 423 2 891 041
La composante saisonnire (COMPOSANTE SAISONNIERE) est alors la srie obtenue dans la partie prcdante,
bt = A+ Bt + t . (colonne PREVISION
et combine la srie Zbt = A+ Bt : on obtient la premire prvision de Xt : X
(droite)). Une mthode encore plus simple est de considrer comme a justement de Zt non pas une droite quelconque
bt = C + t . (colonne PREVISION (constante)). On
mais une constante, Zt = C + t , et la prvision de Xt devient X
pourra ainsi obtenir
2 940 601 = 2 871 933 + 68 668 = (4 772 213 + 209:98 36 404) + 68 668
2 870 061 = 2 932 641 62 580
1 8 Le
temps t est exprim, comme sous Exc el, en nombre de jours par rapport au 1er janvier 1900.
69
5.5.3
Arthur CHARPENTIER
Le lissage exponentiel simple est prsent ci dessous, appliqu la srie corrige des variations saisonnires. Pour cela,
on se xe au pralable une constante de lissage, par exemple = 0:7. La srie lisse est alors dnie parde la faon
suivante
8
< St = Z t1 = 2 726 843 pour t = F eb99
St = Zt 1 + (1 ) St1 = 0:7 3 005 108 + (1 0:7) 2 953 724 = 2 969 139 pour t > F eb99
:
St = S T pour t > T = Dec01
bt = St + t, soit dans lexemple
Lerreur saisonnire est alors toujours la srie ( t) et la prvision est alors donne par X
ci-dessous
3 051 423 = 2 925 143 + 126 280
5.5.4
DATE
VENTES
SERIE
SERIE
ERREUR
PREVISION
ERREUR
CVS
LISSEE
SAISONNIERE
(lissage)
PREVISION
Jan-99
2,853,123
2,726,843
Feb-99
2,797,469
Mar-99
2,719,445
2,726,843
2,773,701
2,752,804
2,721,665
Apr-99
2,735,895
2,798,475
2,743,462
May-99
2,695,410
2,816,996
2,781,971
-121,586
Jun-99
DATE
VENTES
SERIE
SERIE
ERREUR
PREVISION
ERREUR
CVS
LISSEE
SAISONNIERE
(lissage)
PREVISION
Jan-99
2,853,123
2,726,843
Feb-99
78,024
2,804,867
-7,398
2,797,469
2,719,445
2,726,843
20,897
2,742,562
31,139
Mar-99
2,773,701
2,752,804
2,721,665
-62,580
2,680,882
55,013
Apr-99
2,735,895
2,798,475
2,743,462
2,660,385
35,025
May-99
2,695,410
2,816,996
2,781,971
-121,586
78,024
2,804,867
-7,398
20,897
2,742,562
31,139
-62,580
2,680,882
55,013
2,660,385
35,025
2,652,799
2,822,297
2,806,488
-169,498
2,636,990
15,809
Jun-99
2,652,799
2,822,297
2,806,488
-169,498
2,636,990
15,809
Jul-99
2,705,817
2,843,976
2,817,555
-138,159
2,679,396
26,421
Jul-99
2,705,817
2,843,976
2,817,555
-138,159
2,679,396
26,421
Aug-99
2,795,698
2,903,383
2,836,050
-107,685
2,728,364
67,334
Aug-99
2,795,698
2,903,383
2,836,050
-107,685
2,728,364
67,334
Sep-99
2,955,251
2,886,583
2,883,183
68,668
2,951,851
3,400
Sep-99
2,955,251
2,886,583
2,883,183
68,668
2,951,851
3,400
Oct-99
3,007,658
2,902,859
2,885,563
104,799
2,990,362
17,296
Oct-99
3,007,658
2,902,859
2,885,563
104,799
2,990,362
17,296
Nov-99
3,020,084
2,922,653
2,897,671
97,431
2,995,102
24,982
Nov-99
3,020,084
2,922,653
2,897,671
97,431
2,995,102
24,982
Dec-99
3,032,833
2,929,423
2,915,158
103,410
3,018,568
14,265
Dec-99
3,032,833
2,929,423
2,915,158
103,410
3,018,568
14,265
Jan-00
3,075,696
2,949,416
2,925,143
126,280
3,051,423
24,273
Jan-00
3,075,696
2,949,416
2,925,143
126,280
3,051,423
24,273
Feb-00
3,047,187
2,969,163
2,942,134
78,024
3,020,158
27,029
Feb-00
3,047,187
2,969,163
2,942,134
78,024
3,020,158
27,029
Mar-00
3,031,057
3,010,160
2,961,055
20,897
2,981,952
49,105
Mar-00
3,031,057
3,010,160
2,961,055
20,897
2,981,952
49,105
Apr-00
2,942,528
3,005,108
2,995,428
-62,580
2,932,848
9,680
Apr-00
2,942,528
3,005,108
2,995,428
-62,580
2,932,848
May-00
Jun-00
2,873,213
2,811,176
2,994,799
2,980,674
3,002,204
2,997,020
-121,586
-169,498
2,880,618
2,827,522
-7,405
-16,346
May-00
2,873,213
2,994,799
3,002,204
-121,586
2,880,618
-7,405
2,811,176
2,844,805
2,980,674
2,982,964
2,997,020
2,985,578
-169,498
-138,159
2,827,522
2,847,419
-16,346
-2,614
9,680
Jul-00
2,844,805
2,982,964
2,985,578
-138,159
2,847,419
-2,614
Jun-00
Jul-00
Aug-00
2,836,192
2,943,877
2,983,748
-107,685
2,876,063
-39,871
Aug-00
2,836,192
2,943,877
2,983,748
-107,685
2,876,063
-39,871
Sep-00
3,047,197
2,978,529
2,955,839
68,668
3,024,506
22,691
Sep-00
3,047,197
2,978,529
2,955,839
68,668
3,024,506
22,691
Oct-00
3,080,972
2,976,173
2,971,722
104,799
3,076,521
4,451
Oct-00
3,080,972
2,976,173
2,971,722
104,799
3,076,521
4,451
Nov-00
Dec-00
3,066,260
3,078,322
2,968,829
2,974,912
2,974,838
2,970,632
97,431
103,410
3,072,269
3,074,042
-6,009
4,280
Nov-00
Dec-00
3,066,260
3,078,322
2,968,829
2,974,912
2,974,838
2,970,632
97,431
103,410
3,072,269
3,074,042
-6,009
4,280
Jan-01
3,095,541
2,969,261
2,973,628
126,280
3,099,908
-4,367
Jan-01
3,095,541
2,969,261
2,973,628
126,280
3,099,908
-4,367
Feb-01
Mar-01
3,042,742
2,956,884
2,964,718
2,935,987
2,970,571
2,966,474
78,024
20,897
3,048,595
2,987,371
-5,853
-30,487
Feb-01
Mar-01
3,042,742
2,956,884
2,964,718
2,935,987
2,970,571
2,966,474
78,024
20,897
3,048,595
2,987,371
-5,853
-30,487
Apr-01
2,886,788
2,949,368
2,945,133
-62,580
2,882,553
4,235
Apr-01
2,886,788
2,949,368
2,945,133
-62,580
2,882,553
4,235
May-01
Jun-01
2,843,283
2,813,409
2,964,869
2,982,907
2,781,971
2,909,999
-121,586
-169,498
2,660,385
2,740,501
182,898
72,908
May-01
2,843,283
2,964,869
2,781,971
-121,586
2,660,385
182,898
Jun-01
Jul-01
2,813,409
2,889,432
2,982,907
3,027,591
2,909,999
2,961,035
-169,498
-138,159
2,740,501
2,822,876
72,908
66,556
Jul-01
2,889,432
3,027,591
2,961,035
-138,159
2,822,876
66,556
Aug-01
Sep-01
2,976,979
3,068,328
3,084,664
2,999,660
3,007,624
3,061,552
-107,685
68,668
2,899,939
3,130,220
77,040
-61,892
Aug-01
2,976,979
3,084,664
3,007,624
-107,685
2,899,939
77,040
Oct-01
3,094,477
2,989,678
3,018,228
104,799
3,123,027
-28,550
Sep-01
Oct-01
3,068,328
3,094,477
2,999,660
2,989,678
3,061,552
3,018,228
68,668
104,799
3,130,220
3,123,027
-61,892
-28,550
Nov-01
Dec-01
3,057,867
3,088,998
2,960,436
2,985,588
-37,808
13,810
Nov-01
3,057,867
2,960,436
2,998,243
Dec-01
3,088,998
2,985,588
2,998,243
2,971,778
97,431
103,410
3,095,675
3,075,188
97,431
3,095,675
-37,808
2,971,778
103,410
3,075,188
13,810
Jan-02
2,981,445
126,280
3,107,725
Jan-02
2,981,445
126,280
3,107,725
Feb-02
2,981,445
78,024
3,059,469
Feb-02
2,981,445
78,024
3,059,469
Mar-02
2,981,445
20,897
3,002,342
Mar-02
2,981,445
20,897
3,002,342
Apr-02
2,981,445
-62,580
2,918,865
Apr-02
2,981,445
-62,580
2,918,865
May-02
2,981,445
-121,586
2,859,859
May-02
2,981,445
-121,586
2,859,859
Jun-02
2,981,445
-169,498
2,811,947
Jun-02
2,981,445
-169,498
2,811,947
Jul-02
2,981,445
-138,159
2,843,286
Jul-02
2,981,445
-138,159
2,843,286
Aug-02
2,981,445
-107,685
2,873,760
Aug-02
2,981,445
-107,685
2,873,760
Sep-02
2,981,445
68,668
3,050,112
Sep-02
2,981,445
68,668
3,050,112
Oct-02
2,981,445
104,799
3,086,244
Oct-02
2,981,445
104,799
3,086,244
Nov-02
Dec-02
2,981,445
2,981,445
97,431
103,410
3,078,876
3,084,855
Nov-02
Dec-02
2,981,445
2,981,445
97,431
103,410
3,078,876
3,084,855
Jan-03
2,981,445
126,280
3,107,725
Jan-03
2,981,445
126,280
3,107,725
Feb-03
Mar-03
2,981,445
2,981,445
78,024
20,897
3,059,469
3,002,342
Feb-03
Mar-03
2,981,445
2,981,445
78,024
20,897
3,059,469
3,002,342
[St St0 ]
1
0:7
(2 882 758 2 842 769)
1 0:7
70
Arthur CHARPENTIER
VENTES
Jan-99
Feb-99
2,853,123
2,797,469
SERIE
CVS
2,726,843
2,719,445
SERIE
LISSEE S
SERIE
LISSEE SS
COEFF.
A
COEFF.
B
LISSAGE
BRUT
ERREUR
PREVISION
ERREUR
SAISONNIERE (lissage)
PREVISION
2,726,843
2,726,843
2,726,843
2,726,843
78,024
2,804,867
-7,398
Mar-99
Apr-99
May-99
2,773,701
2,735,895
2,695,410
2,752,804
2,798,475
2,816,996
2,721,665
2,743,462
2,781,971
2,723,218
2,737,389
2,768,596
2,720,111
2,749,535
2,795,346
-3,625
14,171
31,207
2,716,486
2,763,706
2,826,553
20,897
-62,580
-121,586
2,737,383
2,701,126
2,704,967
36,318
34,769
-9,557
Jun-99
Jul-99
2,652,799
2,705,817
2,822,297
2,843,976
2,806,488
2,817,555
2,795,121
2,810,824
2,817,856
2,824,285
26,524
15,704
2,844,380
2,839,989
-169,498
-138,159
2,674,882
2,701,830
-22,083
3,987
Aug-99
Sep-99
2,795,698
2,955,251
2,903,383
2,886,583
2,836,050
2,883,183
2,828,482
2,866,773
2,843,617
2,899,594
17,658
38,291
2,861,275
2,937,884
-107,685
68,668
2,753,590
3,006,552
42,108
-51,301
Oct-99
3,007,658
2,902,859
2,885,563
2,879,926
2,891,201
13,153
2,904,354
104,799
3,009,153
-1,495
Nov-99
Dec-99
3,020,084
3,032,833
2,922,653
2,929,423
2,897,671
2,915,158
2,892,347
2,908,315
2,902,994
2,922,001
12,421
15,968
2,915,415
2,937,969
97,431
103,410
3,012,846
3,041,379
7,238
-8,546
Jan-00
Feb-00
Mar-00
Apr-00
3,075,696
3,047,187
3,031,057
2,942,528
2,949,416
2,969,163
3,010,160
3,005,108
2,925,143
2,942,134
2,961,055
2,995,428
2,920,095
2,935,523
2,953,395
2,982,818
2,930,192
2,948,746
2,968,714
3,008,038
11,780
15,428
17,872
29,423
2,941,972
2,964,174
2,986,587
3,037,461
126,280
78,024
20,897
-62,580
3,068,252
3,042,198
3,007,484
2,974,882
7,444
4,989
23,573
-32,354
May-00
Jun-00
Jul-00
Aug-00
2,873,213
2,811,176
2,844,805
2,836,192
2,994,799
2,980,674
2,982,964
2,943,877
3,002,204
2,997,020
2,985,578
2,983,748
2,996,388
2,996,831
2,988,954
2,985,310
3,008,020
2,997,210
2,982,202
2,982,187
13,570
442
-7,877
-3,644
3,021,590
2,997,652
2,974,326
2,978,543
-121,586
-169,498
-138,159
-107,685
2,900,004
2,828,154
2,836,167
2,870,857
-26,791
-16,978
8,638
-34,665
Sep-00
3,047,197
2,978,529
2,955,839
2,964,680
2,946,997
-20,630
2,926,367
68,668
2,995,035
52,162
Oct-00
Nov-00
Dec-00
Jan-01
Feb-01
Mar-01
Apr-01
May-01
Jun-01
Jul-01
Aug-01
3,080,972
3,066,260
3,078,322
3,095,541
3,042,742
2,956,884
2,886,788
2,843,283
2,813,409
2,889,432
2,976,979
2,976,173
2,968,829
2,974,912
2,969,261
2,964,718
2,935,987
2,949,368
2,964,869
2,982,907
3,027,591
3,084,664
2,971,722
2,974,838
2,970,632
2,973,628
2,970,571
2,966,474
2,945,133
2,948,097
2,959,837
2,975,986
3,012,110
2,969,610
2,973,270
2,971,423
2,972,966
2,971,290
2,967,919
2,951,969
2,949,259
2,956,664
2,970,190
2,999,534
2,973,835
2,976,407
2,969,840
2,974,289
2,969,853
2,965,029
2,938,297
2,946,936
2,963,011
2,981,783
3,024,686
4,930
3,660
-1,847
1,543
-1,677
-3,371
-15,950
-2,710
7,405
13,526
29,344
2,978,764
2,980,067
2,967,994
2,975,833
2,968,176
2,961,659
2,922,347
2,944,226
2,970,416
2,995,309
3,054,030
104,799
97,431
103,410
126,280
78,024
20,897
-62,580
-121,586
-169,498
-138,159
-107,685
3,083,563
3,077,498
3,071,404
3,102,112
3,046,200
2,982,556
2,859,767
2,822,640
2,800,917
2,857,150
2,946,344
-2,591
-11,238
6,918
-6,571
-3,458
-25,672
27,021
20,643
12,492
32,282
30,635
Sep-01
Oct-01
Nov-01
Dec-01
Jan-02
3,068,328
3,094,477
3,057,867
3,088,998
2,999,660
2,989,678
2,960,436
2,985,588
3,062,898
3,018,632
2,998,364
2,971,814
2,981,456
3,043,889
3,026,209
3,006,718
2,982,285
2,981,705
3,081,907
3,011,055
2,990,011
2,961,343
2,981,207
44,355
-17,680
-19,491
-24,432
-581
3,126,262
2,993,375
2,970,520
2,936,911
2,980,626
68,668
104,799
97,431
103,410
126,280
3,194,930
3,098,173
3,067,951
3,040,321
3,106,906
-126,602
-3,696
-10,084
48,677
-3,106,906
Feb-02
2,981,207
-1,161
2,980,046
78,024
3,058,069
-3,058,069
Mar-02
Apr-02
2,981,207
2,981,207
-1,742
-2,323
2,979,465
2,978,884
20,897
-62,580
3,000,362
2,916,305
-3,000,362
-2,916,305
May-02
Jun-02
2,981,207
2,981,207
-2,903
-3,484
2,978,304
2,977,723
-121,586
-169,498
2,856,718
2,808,225
-2,856,718
-2,808,225
Jul-02
Aug-02
2,981,207
2,981,207
-4,065
-4,645
2,977,142
2,976,562
-138,159
-107,685
2,838,983
2,868,877
-2,838,983
-2,868,877
Sep-02
2,981,207
-5,226
2,975,981
68,668
3,044,649
-3,044,649
Oct-02
Nov-02
Dec-02
Jan-03
Feb-03
Mar-03
2,981,207
2,981,207
2,981,207
2,981,207
2,981,207
2,981,207
-5,806
-6,387
-6,968
-7,548
-8,129
-8,710
2,975,401
2,974,820
2,974,239
2,973,659
2,973,078
2,972,497
104,799
97,431
103,410
126,280
78,024
20,897
3,080,199
3,072,251
3,077,649
3,099,938
3,051,102
2,993,395
-3,080,199
-3,072,251
-3,077,649
-3,099,938
-3,051,102
-2,993,395
Les graphiques ci-dessous correspondent, respectivment la comparaison entre les lissages corrigs des variations
saisonnires et les lissages de la srie brute (en haut et en bas respectivement ), avec gauche le lissage par une
constante et par une droite, au centre un lissage expontiel simple et droite un lissage exponentiel double,
3200000
3100000
3200000
3100000
3000000
3100000
3000000
3000000
2900000
2900000
2900000
2800000
2800000
2700000
2800000
2700000
99:07
SERIE_CVS
00:01
00:07
01:01
TEND_CSTE
01:07
TEND_LINEAIRE
99:07
SERIE_CVS
00:01
00:07
01:01
TEND_LISS_03_SIM
71
01:07
TEND_LISS_07_SIM
2700000
99:07
SERIE_CVS
00:01
00:07
01:01
TEND_03_LISS_DOU
01:07
TEND_07_LISS_DOU
3200000
3100000
Arthur CHARPENTIER
3200000
3200000
3100000
3100000
3000000
3000000
3000000
2900000
2900000
2900000
2800000
2800000
2800000
2700000
2700000
2600000
2700000
2600000
99:07
SERIE
00:01
00:07
PREV_CSTE
01:01
01:07
PREV_LINERAIRE
2500000
SERIE
2600000
99:07
00:01
00:07
01:01
PREV_LISS_03_SIM
72
01:07
PREV_LISS_07_SIM
SERIE
99:07
00:01
00:07
01:01
PREV_LISS_03_DOU
01:07
PREV_07_LISS_DOU
Arthur CHARPENTIER
6.1
6.1.1
On considre le processus (Xt ) dnit sur lespace de probabilit (-; A; P), valeurs dans R.
Dnition 28 Lespace L2 (-; A; P) est lespace des variables de carr intgrable (variances-covariances nies).
De faon plus gnrale (et plus formelle), on dsigne par Lp lespace de Banach des classes dquivalence (pour
R
1=p
p
lgalit P-presque sre) des fonctions mesurables telles que kf kp = - jf j dP
soit nie.
Proprit 21 L2 est un espace de Hilbert, muni du produit scalaire h; i et la norme associekk
hX; Y i = E (XY )
2
2
kXk = hX; Xi = E X 2 = V (X) + E (X) :
Par dnition de la covariance, on peut noter que, si X et Y sont centre, hX; Y i = E (XY ) = cov (X; Y ).
Thorme 5 Thorme de projection Si H est un sous espace ferm de L2 , pour toute variable Y 2 L2 , il existe
une unique variable alatoire Yb 2 H tel que
Y Yb = min kY Hk ;
H 2H
b 2 H et Y Yb 2 H? . On notera aussi H (Y ).
caractris par Y
Remarque 27 Xn converge vers X au sens de L2 si
n!1
q
X
n2Z
lim EXn = EX
lim V (Xn X) = 0
an Xn et Y =
n= p
6.1.2
lim
p;q!+1
Y p;q =
an X n :
n2Z
1
1
0 1
f (x) =
exp
(x
(x
)
;
p
2
(2)d=2 det
o 2 Rd et est une matrice hermitienne positive d d.
Si X est un vecteur gaussien, son moment lordre p existe et de plus, E (X) = et V (X) = :
Dnition 30 Le processus (Xt ) est un processus gaussien si tout systme ni extrait est un vecteur alatoire gaussien,
i.e. pour tout n, pour tout t1 ; :::; tn , (Xt1; :::; Xtn ) est un vecteur gaussien.
73
6.1.3
Arthur CHARPENTIER
H = V ect(X1 ; :::; Xn ), et la rgression ane thorique de Y sur X1 ; :::; Xn est la projection orthogonale dans
L2 (-; A; P) de Y sur H = V ect(I; X1 ; :::; Xn ). On note alors
b = E L (Y jI; X1 ; :::; Xn ) = H (Y )
Y
o E L (:j:) dsigne lesprance linaire: Cette variable est la meilleure approximation (au sens de L2 ) de Y par une
combinaison linaire de I; X1 ; :::; Xn ;
Y
Xk
bk Xk
EL(Y|X 1 Xk )=b1 X1 ++bk X k
b1 X1
X1
Proprit 22 Soit le vecteur [cov (X; Xi )]i=0;1; :::;n et la matrice [cov (Xi; Xj )]i; j=0;1; :::;n . Alors
b = E L (XjI; X1 ; :::; Xn ) = a0 + a1 X1 + ::: + an Xn ;
X
b 2 H? , cest dire
car X X
Do
< E X X
b = 0 soit E (X) = E X
b
h
i
: E X X
b Xi = 0 pour i = 1; :::; n:
8
< E (X) = E X
b = 0 + 1 E (X1 ) + ::: + n E (Xn )
: E (XXi) = E XX
b i = 0 E (Xi ) + 1 E (X1 Xi) + ::: + n E (Xn Xi)
(1) donne 0 = E (X) 1 E (X1 ) ::: n E (Xn ) et par substitution dans (2),
E (XXi ) =
8
cov (XX1 ) = 1 cov (X1 X1 ) + ::: + n cov (Xn X1 )
>
>
<
cov (XX2 ) = 1 cov (X1 X2 ) + ::: + n cov (Xn X2 )
>
:::
>
:
cov (XXn ) = 1 cov (X1 Xn ) + ::: + n cov (Xn Xn ) ;
= :
74
(1)
(2)
Arthur CHARPENTIER
Remarque 28 On peut noter que E L (XjI; X1 ; :::; Xn ) = E L (XjX1 ; :::; Xn ) si et seulement si E (X) = 0 et E (Xj ) =
0 pour j = 1; 2; :::; n.
(ii) rgression sur un nombre inni de variables
On considre cette fois ci X1 ; :::; Xn ; ::: des variables de L2 , et X0 = I 2 L2 . Soit H ladhrance de lespace
engendr par les combinaisons linaires des Xi : H =L (I; X1 ; :::; Xn ; :::).
b n = EL (X jI; X1 ; :::; Xn ). La projection sur H est alors la limite (dans L2 ) des variables X
bn
On considre alors X
b = lim EL (XjI; X1 ; :::; Xn ) :
X
n!1
6.1.4
La notion dinnovation
Oprateur de pro jection linaire Etant donnes une variable alatoire Y et une famille de variables alatoires
fX1 ; :::; Xn g, on dnit loprateur de projection linaire de la faon suivante :
(Y j fX1 ; :::; Xn g) = 1 X1 + ::: + n Xn ;
o les i sont les solutions du programme doptimisation
(1 ; :::; n ) = arg min fV ar [Y (a1 X1 + ::: + an Xn )]g :
a1 ;:::;a n
En dautres termes, (Y j fX1 ; :::; Xn g) est la meilleure prvision linaire de Y base sur fX1 ; :::; Xn g, au sens o la
variance de lerreur sera minimale. On peut noter que cet oprateur est linaire, au sens o
(:Y + :Zj fX1 ; :::; Xn g) = : (Y j fX1 ; :::; Xn g) + : (Zj fX1 ; :::; Xn g) :
De plus, lerreur de prvision Y (Y j fX1 ; :::; Xn g) est non corrle avec toute fonction linaire des X1 ; :::; Xn . Enn,
si cov (X1 ; X2 ) = 0, alors (Y j fX1 ; X2 g) = (Y j fX1 g) + (Y j fX2 g).
Il est possible de projeter sur une suite innie de variables alatoires fX1 ; :::; Xn ; :::g, en notant
(Y j fX1 ; :::; Xn ; :::g) = lim (Y j fX1 ; :::; Xk g) :
k!1
Cette limite existant pour toute suite de variables alatoires j fX1 ; :::; Xn ; :::g :
Prvision linaire
Dnition 31 Soit (Xt )t2Z un processus de L2 . On appelle meilleur prvision linaire de Xt sachant son pass la
regression linaire (thorique) de Xt sur son pass H =V ect (I; Xt1 ; Xt2 ; :::), et sera note E L (Xt jI; Xt1 ; Xt2 ; :::).
Dnition 32 Le processus dinnovation du processus (Xt) est le processus ("t ) dni par
"t = Xt E L (Xt jI; Xt1 ; Xt2 ; :::) :
alors
EL (XtjI; Xt 1 ; Xt 2 ; :::) =
et le processus dinnovation est (Y t) :
1
X
i Xti
i=1
Preuve. Le processus (Xt) est stationnaire en tant que moyenne mobile de bruit blanc. Dnissons alors
S t;n =
1 9 Cec i
n
X
iXti .
i=1
75
Arthur CHARPENTIER
n
n
X
X
i
i
;
kSt;n St;m k =
Xti kXtk
i=m+1
i=m+ 1
qui tend vers 0 quand m et n tendent vers linni. (St;n ) converge donc dans L2 vers St =
V ect (I; Xt1 ; Xt2 ; :::).
Or Xt = Y t Yt 1 , donc Xt + Sn;t = Yt + n+1 Y tn1 et donc
Xt +
1
X
P1
i=1
iXt i, lment de
i Xti = Y t ;
i=1
Comme nous le verrons par la suite (proprit (??)) le processus Y t ainsi dni ne correspond pas linnovation
du processus Xt . Il est possible de montrer (en utilisant la densit spectrale) que le processus "t dnit par "t =
Xt 1 Xt1 est eectivement un bruit blanc. En fait, ("t ) correspond au processus dinnovation associ au processus
(Xt ).
Du fait de cette dnition, linnovation possde un certain nombre de proprits
Y
Xk
bk Xk
EL(Y|X 1 Xk )=b1 X1 ++bk X k
b1 X1
X1
Comme on peut le voir sur le schma ci-dessus, si "t est linnovation, alors elle est orthogonale au pass de Xt cest
dire que
o dsigne une somme directe orthogonale, et le processus bruit blanc est alors unique : il est appel innovation du
processus (Xt ) : Le fait que les deux espaces concident implique, en particulier, que si ("t ) est linnovation du processus
(Xt ) alors
EL (XT + k jXT ; XT 1 ; ::::) = EL (XT +h j"T ; " T 1 ; :::) :
76
Arthur CHARPENTIER
Complments laide des espaces H Etant donn un processus (Xt ), on notera H (X) le sous-espace de Hilbert
de L2 correspondant ladhrance, dans L2 , de lespace des combinaisons linaires nies dlments de (Xt ). On
notera HT (X) le sous-espace de Hilbert de L2 correspondant ladhrance, dans L2 , de lespace des combinaisons
linaires nies dlments de (Xt ) avec t T .
Dnition 33 On appelle processus dinnovation la suite "t = Xt Ht1(X) (Xt).
Ce processus est alors une suite orthogonale (pour le produit scalaire h; i), et on a linclusion Ht1 (") Ht1 (X).
6.2
6.2.1
Nous avions dni prcdemment loprateur retard L par L : Xt 7! L (Xt ) = LXt = Xt1 et loprateur avance F
par F : Xt 7! F (Xt ) = F Xt = Xt+1 . On notera alors
Lp = L
::: L} o p 2 N,
| L {z
p fois
1
X
k Lk :
k= 0
(1 L)
1
X
1 k
=
F :
k
k=1
(1 )
donc A(L) =
P+1
k=0
+1
X
k =
k=0
1
< +1;
1
k!+ 1
j=0
1
= F et
F
1
(1 L)
Fk =
k
1
X
= (L)
+1
X
k=1
77
. On a alors :
1
=
F car < 1
k
k=0
+1
X
F
1
1
= F
k=1
k Lk ;
+1
X 1
k= 0
Arthur CHARPENTIER
n
Y
i=1
(1 iL) o i =
1
zi
Proprit 25 Si pour tout i, ji j 6= 1, alors A (L) est inversible. Pour cela, notons
Y
Y
Y
Y
1
A (L) =
(1 i L) =
(1 iL)
1 F
( i L);
i
j ij< 1
j ij> 1
j ij>1
|
{z
}|
{z
}|
{z
}
A1(L)
A2 (L)
A3(L )
1
A (L)
(1 iL)
= A1 (L)
A2 (L)
A3 (L)
j ij<1
(1 iL)
{z
j ij> 1
}|
k Lk
1
1 F
i
{z
P
kF k
2
4
jij> 1
i5 F n ;
P
Qp
Preuve. En eet, 8i; (1 i L)1 est bien dni, de la forme k2Z ai;k Lk et A(L)1 = i=1 (1 iL) 1 est donc
aussi dni. Toutefois, A(L) 1 peut contenir des
termes en Lk ; k > 0 qui sont des termes concernant le futur
P+1
1
Si j ij < 1 pour tout i alors (1 iL) = k=0 ki Lk et :
A(L)1 =
p
Y
(1 iL) 1 =
i=1
Par ailleurs,
A(z) =
p
Y
(1 iz)
i=1
+1
X
ak Lk
k= 0
+1
X
k=0
et A(z)A(z)1 = 1 ,
p
Y
(1 iz)
i=1
+ 1
X
k=0
ak z k
= 1;
de telle sorte que A(0)A(0) 1 = 1 a0 = 1 ) a0 = 1. Sil existe i tel que i 2 CnR alors A(L) = (1 i)(1 i)P (L)
et
!
!
+1
+1
+1
+1
X
X
X
X
k
k
i Lk =
(1 i) 1 (1 i)1 =
i L k
k Lk k 2 R; 0 = 1;
jak j < +1:
k=0
k=0
k=0
k=0
Remarque 31 Si des racines sont infrieures 1 (en module), cette dcomposition fait intervenir le futur de la
variable.
78
Arthur CHARPENTIER
Pour dterminer, en pratique, linverse dun polynme A (L), supposons quil scrive A(L) =
telle sorte que
+1
!
p
Y
X k
1
k
A(L) =
j L
j=1
Qp
j= 1(1
j L), de
k=0
On peut utiliser directement cette mthode de calcul pour p petit (p = 1; 2) mais elle savre fastidieuse en gnral.
On note,
+ 1
!
+1
!
X
X
A(L)
ak Lk = (1 + ' 1 L + + 'p Lp )
ak Lk = 1
k=0
k=0
(L) 1 =
p
Y
1
1 j L
j=1
On dcompose alors cette fraction rationnelle en lments simples, 1 = (z)Qr (z) + z r+1 Rr (z) avec limr !+1 Qr (z) =
A1 (z).
6.3
Pour rappels, Un processus (Xt ) est stationnaire (au second ordre) si pour tout t, E Xt2 < +1; pour tout t,
E (Xt ) = , constante indpendante de t et, pour tout t et pour tout h, cov (Xt; Xt+h ) = (h), indpendante de t:
6.3.1
Autocovariance et autocorrlation
Pour une srie stationnaire (Xt ), on dni la fonction dautocovariance h 7! X (h) = cov (Xt Xth ) pour tout t,
et on dni la fonction dautocorrlation h 7! X (h) = X (h) =X (0) pour tout t, soit
cov (Xt ; Xth )
(h)
p
= X
X (0)
V (Xt) V (Xth )
6
6
6
6
6
R (h) = 6
6
6
6
4
1
(1)
(2)
(h 1)
(1)
1
(1)
(2)
(1)
1
..
.
(h 2) (h 3)
..
..
..
..
1
(1)
3
(h 1)
(h 2) 7 2
7
7
6
(h 3) 7
7 6
R (h 1)
7=6
7 4
7
7
(h 1) (1)
(1) 5
1
3 3
(h 1)
6
7 7
..
4
5 7
.
7
5
(1)
1
On peut noter que det R (h) 0 pour tout h 2 Nn f0g. Cette proprit implique un certain nombre de contraintes
sur les X (i). Par example, la relation det R (2) 0 implique la contrainte suivante sur le couple ( (1) ; (2)) :
h
i
[1 (2)] 1 + (2) 2 (1)2 0;
p
ce qui fait quil ne peut y avoir de chute brutale de (1) (2) : il est impossible davoir (2) = 0 si (1) 1= 2.
Ces fonctions sont estimes, pour un chantillon X1 ; :::; XT , de la faon suivante :
Th
1 X
(h)
b
(h) =
b
Xt Xth et
b (h) =
;
T h
b (0)
t=1
(quand le processus est centr, sinon, il faut considrer (Xt ) (Xth )).
79
6.3.2
Arthur CHARPENTIER
Autocorrlations partielles
Les deux prcdentes mesures de dpendence entre Xt et Xt+ h ne faisaient intervenir que les variables Xt et Xt+h .
Nous allons introduire ici une notion faisant intervenir les variables intermdiaires. Nous supposerons, sans perte de
gnralit que le processus (Xt ) est centr : E (Xt) = 0 pour tout t.
Dnition 35 Pour une srie stationnaire (Xt), on dni la fonction dautocorrlation partielle h 7! X (h)
par
bt ; X
b th ;
X (h) = corr X
o
On regarde ici la pro jection (ou lesprance linaire) les deux valeurs extrmes Xt et Xth sur lensemble des
valeurs intermdiaires t1
h1 = fXt1 ; :::; Xth+1 g. Cette pro jection peut scrire, dans le cas de Xt
E L (Xt jXt 1 ; :::; Xth+1 ) = a1 (h 1) Xt 1 + a2 (h 1) Xt 2 + ::: + ah 1 (h 1) Xth+ 1:
On peut aussi crire, en ra joutant Xth ; et en pro jetant ainsi sur t1
h ,
EL (XtjXt1 ; :::; Xt h ) = a1 (h) Xt1 + a2 (h) Xt2 + ::: + ah1 (h) Xt h+1 + ah (h) Xth :
(19)
ai (h 1) Xt i =
h1
X
i=1
h
X1
i=1
ah i (h 1) Xt i:
aj (h) = aj (h 1) ah (h) + ah j (h 1)
Toutefois, cette mthode rcursive nest possible qu condition de connatre ah (h). Pour cela, on peut utiliser le
rsultat suivant,
Lemme 1 En notant i le coecient dautocorrlation, i = corr (Xt ; Xti), alors
P 1
(h) h
i=1 (h i) ai (h 1)
a h (h) =
:
Ph1
1 i=1 (i) ai (h 1)
(21)
" h1
X
i=1
(h i) ai (h 1) ah (h) :
h1
X
i=1
i=1
(h i) ai (h) :
#
(i) ai (h 1) :
h1
X
Arthur CHARPENTIER
Dnition 36 Lalgorithme rcursif bas sur (20), (21) et la condition initiale a1 (1) = (1) est appel algorithme
de Durbin.
De (20) on peut en dduire en particulier que
a1 (h) = a1 (h 1) + ah (h) ah1 (h 1) ;
et de (21) ; que pour h 2,
ah (h) =
(1) ah 1 (h 1)
:
1 (1) a1 (h 1)
Ces deux quation permettent dobtenir rcursivement les deux coecients extrmes a1 (h) et ah (h) pour tout h.
Proprit 27 Soit (Xt ) un processus stationnaire, alors X (0) = 1, et, pour h 1, X (h) est le coecient relatif
Xth dans la projection de Xt sur Xt 1 ; :::; Xt h+1 ; Xth , soit ah (h).
Preuve. Cette proprit sobtient en notant que
EL (XtjXt1 ; :::; Xth ) EL (XtjXt1 ; :::; Xt h+1 ) = ah (h) [Xth E L (Xt hjXt1 ; :::; Xt h+1 )] :
et
(h 1)
(h 1)
(1)
(1)
6
4
a 1 (h)
..
.
ah 1 (h)
7
5 + ah (h) = (h) :
h
i
2
X (2) X (1)
h
i
(2) =
1 X (1)2
Une autre formulation consiste dire que la fonction dautocorrlation partielle mesure la corrlation entre Xt et
Xth une fois retire linuence des variables antrieures Xth . En reprenant les notations de la partie prcdante,
2
3
1
(1)
(2)
(h 3) (h 2) (h 1)
6 (1)
1
(1)
(h 4) (h 3) (h 2) 7
6
7
6
7
..
6 (2)
. (h 5) (h 4) (h 3) 7
(1)
1
6
7
6
7
..
..
..
R (h) = 6
7
.
.
.
6
7
6
7
.
6 (h 3) (h 4) (h 5) . .
1
(1)
(2) 7
6
7
4 (h 2) (h 3) (h 4)
(1)
1
(1) 5
(h 1) (h 2) (h 3)
(2)
(1)
1
81
Arthur CHARPENTIER
(1)
(h 4)
6
6
..
6 (2)
. (h 5)
(1)
1
6
6
.
.
..
..
..
R (h) = 6
.
6
6
.
6 (h 3) (h 4) (h 5) . .
1
6
4 (h 2) (h 3) (h 4)
(1)
(h 1) (h 2) (h 3)
(2)
Il est alors possible de montrer simplement que
X (h) =
6.3.3
(1)
(2)
7
7
7
(h 4)
(3) 7
7
7
7
7
7
(1)
(h 2) 7
7
1
(h 1) 5
(1)
(h)
jR (h)j
pour tout h.
jR (h)j
Densit spectrale
Comme nous lavon dj mentionn, il est quivalent de connatre la fonction dautocorrlation et la densit spectrale
du processus.
P+1
Proprit 28 Soit (Xt) un processus stationnaire de la forme Xt = m + j=0 aj "tj o (" t) est un bruit blanc et
P+1
P
j=0 jaj j < +1, alors
h2Z jX (h)j < +1.
Preuve.
X X
:
jX (h)j =
a
a
(h
+
j
k)
j k "
h2 Z
h2Z j;k
X
" (h + j k) =
et donc,
0 si h + j k 6= 0
2" si h + j k = 0;
0
12
X X
X
X
2"
j X (h)j =
aj ah+j 2"
jaj j jah+j j = 2" @
aj A < +1:
h2Z
h 2Z
j
h;j
j
X
h 2Z
Preuve. En eet,
f X (!) =
"
1
X (0) +
2
2
X (h)e i!h +
h>0
X (h)ei!h =
h <0
1 6
4X (0) +
2
X (h)e i!h +
h>0
= 2 cos(!h)
h>0
X
X
1 6
1
7
4X (0) +
X (h) (ei!h + ei!h )5 =
X (h) cos(!h)5
4X (0) +
|
{z
}
2
2
h>0
h6=0
1 X
X (h) cos(!h):
2
h2Z
On peut dailleurs noter que si ("t) est un bruit blanc de variance 2 , on a alors
("t ) B B(0; 2 ) ) f "(!) =
82
"
:
2
7
X (h) ei!h 5
| {z }
= X (h)
Arthur CHARPENTIER
[ ;]
Preuve. En eet,
Z
i!h
f X (!)e
d!
1
2
[ ;]
[ ;]
i! k
X (k)e
k2Z
ei!h d!
Z
!
1 X
i! (kh)
X (k)
e
d! (daprs Fubini)
2
[ ; ]
k2 Z
| 8
{z
}
< 0 si k 6= h
=
: 2 si k = h
= X (h):
Proprit 31 Soient ("t) un bruit blanc, et considrons les processus (Xt) et (Yt ) dnis par
X
X
X
X
Xt =
aj "t j et Y t =
bk Xtk
o
jaj j ;
jbj j < +1;
j2 Z
alors Yt =
k2Z c k "t k ,
k2Z
et de plus,
2
X
i!k
f Y (!) = fX (!)
bk e :
k2Z
bk Xtk
k2Z
k2Z
0
1
X
X
bk @
aj "t kj A =
aj b k "t(k+j)
j;h2 Z
j2Z
aj bh j " th =
h2Z
@
|
j;k2Z
j2 Z
aj b hj A" th :
{z
=ck
0
1
X X
1 X
1
@
Y (h)ei!h =
b j b k X (h + j k)A ei!h
2
2
h2 Z
1
2
1
2
h 2Z
h; j;k2Z
j;k2Z
X (l)e i!l
l2 Z
!0
2
X
i!k
= f X (!)
bke :
X
j2Z
1
!
X
b j ei! j A
b k e i!k
k2Z
k2 Z
6.3.4
Autocorrlations inverses
Cette notion a t introduite en 1972 par Cleveland, et Chateld en a prcis les principales charactristiques en 1979.
Etant donn un processus (Xt ) stationnaire, de fonction dautocovariance X et de densit spectrale fX ; il se peut
que 1=f X soit interprtable comme une densit spectrale (par exemple ds lors que 1=fX est continue).
83
Arthur CHARPENTIER
Dnition 37 La fonction dautocovariance inverse i X est la fonction dautocovariance associe au spectre inverse 1=f ,
Z +
1
1
1 X
i X (h) =
exp (i!h) d! ou
=
i X (h) exp (i!h) :
fX (!)
2
f X (!)
h2Z
De la mme faon que prcdement, on peut alors dnir une autocorrlation inverse,
Dnition 38 La fonction dautocorrlation inverse i X est dnie par,
i (h) =
i X (h)
:
iX (0)
Considrons une srie (Xt ) stationnaire, de processus dautocovariance (h) pour h 2 Z. On dnit alors la
fonction gnratrice dautocovariance comme le polynme (doprateurs retards ) suivant
(L) = ::: + (1) L1 + (0) I + (1) L + (2) L2 + ::: =
+1
X
(k) Lk ;
k=1
et de faon similaire, on peut dnir la fonction gnratrice dautocorrlation. La fonction gnratrice dautocovariance
inverse, note i (L) est dni par i (L) (L) = I et est telle que
i (L) = ::: + i (1) L1 + i (0) I + i (1) L + i (2) L2 + ::: =
+1
X
i (k) Lk = (L)
k=1
Exemple 40 Dans le cas dun processus dit ARM A (p; q) (voir partie (6:6)), dnit par une relation de la forme
(L) Xt = (L) " t o "t est un bruit blanc, et o et sont respectivement des polynmes de degr p et q. La
fonction gnratrice dautocovariance inverse est donne par
(L) L 1 1
i (L) =
:
o 2 est la variance du bruit blanc " t
(L) (L1 ) 2
Dans le cas o la composante moyenne mobile nexiste pas ( = I, on parle alors de processus AR (p)),on peut alors
en dduire simplement que lautocovariance inverse est donne par
Pph
j=0 j j+h
i (h) =
pour h p et i (h) = 0 pour h p
Pp
2
j=0 j
avec la convention 0 = 1. Aussi, pour les processus AR (p), les autocorrlations inverses sannulent au del du
retard p (de la mme faon que les autocorrlations partielles). Bhansali a montr en 1980 que pour un bruit blanc,
les autocorrlations inverses empiriques suivent un bruit blanc de loi normale de moyenne nulle et de variance 1=n.
Ainsi, la signicativit des coecients dautocorrlation inverse peut tre teste, au seuil de 5%, en la comparant avec
p
1:96= n:
Il est galement possible de dnir les autocorrlations partielles inverses (en utilisant une construction analogue
celle dveloppe dans la partie prcdante, en remplaant les par les i). Comme la montr Bhansali (1980 1983)
et Cleveland et Parzen, les autocorrlations partielles inverses peuvent tre obtenus laide de mthodes rcursives
(proches de celle de Durbin ).
Remarque 32 On peut noter la correspondance suivante
autocorrlations
partielles
l
autocorrlations
inverses
autocorrlations
l
autocorrlations
partielles inverses
En fait, comme nous le verrons par la suite, sur lidentication des modles ARM A, les autocorrlations permettent
de dtecter (entre autres) si une srie est intgre, et sil faut la direncier, alors que les autocorrlations partielles
permettent de vrier que la srie na pas t surdirencie.
Les autocorrlations et les autocorrlations inverses i sont identiques si et seulement si X est un bruit blanc
84
6.3.5
Arthur CHARPENTIER
Nous allons rappeler ici les formes des autocorrlogrammes, et des autocorrlogrammes partiels de sries non-stationnaires,
et dterministes.
Exemple 41 Fonction linaire Xt = a + bt
600
400
200
0
-200
-400
-600
200
400
600
800
1000
LINEAIRE
120
80
40
200
400
600
800
1000
PUISSANCE
0
200
400
600
800
1000
LOGARITHME
85
Arthur CHARPENTIER
20
40
60
80
100
120
SINUS12
6.4
Dnition 39 On appelle processus autoregressif dordre p, not AR (p), un processus stationnaire (Xt ) vriant une
relation du type
p
X
Xt
i Xti = "t pour tout t 2 Z,
(22)
i=1
o les i sont des rels et ("t ) est un bruit blanc de variance 2 . (22) est quivalent lcriture
(L) Xt = " t o (L) = I 1 L ::: p Lp
Il convient de faire toutefois attention aux signes, certains ouvrages ou logiciels considrant des polynmes de la
forme I + 1 L + ::: + p Lp .
Remarque 33 En toute gnralit, un processus AR (p) vrie une relation de la forme (L) Xt = + "t o
est un terme constant. De cette forme gnrale, il est possible de se ramener (22) par une simple translation : il
sut de consider non pas Xt mais Y t = Xt m o m = = (1). En eet, (L) (Y t + m) = + "t peut se rcire
(L) Y t + (1) m = + "t cest dire (L) Yt = "t . m correspond ici lesprance de (Xt).
6.4.1
Comme nous lavons vu dans la partie (6:2:2), si lon souhaite inverser un polynme (en loccurence, prsenter Xt
comme une fonction des "t ), il convient de regarder les racines du polynme , en particulier leur position par rapport
1 (en module). Comme nous allons le voir dans cette partie, il est possible, lorsque les racines de sont de module
dirent de 1, quil est toujours possible de supposer les racines de module suprieur 1, quitte changer la forme
du bruit blanc.
Ecriture sous la forme M A(1) quand les racines de sont de module strictement suprieur 1 On
suppose (L)Xt = + "t o (L) = 1 ('1 L + + ' p L) et aussi que jzj 1 ) (z) 6= 0 (de telle sorte que les
racines de sont de module strictement suprieur 1 ). Daprs les rsultats noncs dans la partie sur les polynmes
doprateurs retards, (Xt) admet une reprsentation M A(1) i.e.
Xt = m +
+1
X
k=0
ak "t k
o a0 = 1; ak 2 R;
+1
X
k=0
Arthur CHARPENTIER
De la mme faon et comme " t = Xt ( + '1 Xt 1 + + ' p Xtp ), in obtient linclusion rciproque et nalement
L(Xt ) = L("t ).
b t, o
(ii) Linnovation de (Xt) vaut, par dnition, Xt X
bt
X
= E L( + ' 1 Xt1 + + ' p Xtp + "t jXt 1 ) = + '1 Xt 1 + + 'p Xt p + E L("t jXt 1 ):
|
{z
}
2 L(X t1)
bt =
Comme L(Xt 1 ) = L("t 1 ), on a EL(" tjXt1 ) = E L("t j"t1 ) = 0 car (" t) est un bruit blanc. Finalement X
bt = "t : ("t ) est bien linnovation de (Xt ).
+ ' Xt1 + + ' Xtp et Xt X
1
Si (Xt ) est un processus AR (p), (L)Xt = + "t o les racines de sont lextrieur du disque unit, on dit que
la reprsentation (L)Xt = + "t est la reprsentation canonique de (Xt):
Ecriture sous la forme M A(1) quand certaines racines de sont de module strictement infrieur 1
On suppose que le processus (Xt ) scrit (L)Xt = + "t avec
2
32
3
p
Y
Y
Y
(L) =
(1 j L) = 4
(1 j L)5 4
(1 j L)5
j=1
j= jj j<1
j= jj j> 1
On peut alors montrer que lon naura pas L(Xt ) = L("t ), et donc ("t) nest pas linnovation.
Pour obtenir la reprsentation canonique il faut changer le polynme et le bruit blanc. On pose
2
32
3
Y
Y
z
(z) = 4
(1 j z)5 4
(1
)5
j
j= jj j< 1
j= jj j>1
Proprit 33 Soit ( t ) le processus tel que t = (L)Xt. Alors ( t ) est un bruit blanc.
2
Preuve. En eet, la densit spectrale de ( t ) est f (!) = fX (!) (ei! ) . Et comme (L)Xt = " t, on a aussi :
2
2
fX (!) (ei! ) = f" (!) = "
2
f (!) =
2
j= j j j<1
i! 2
2"
1
(e ) = " h
i
h
i
Q
2 j(ei! )j2
2 Q
i! 2
i! 2
j= j j j<1 j1 j e j
j= j j j>1 j1 j e j
2
2" Y
1 j ei!
2 Y
1
= "
2
2
2
i!
2
2
j j j j1 j e j
j j j
j; j j j>1
j; j j j>1
|
{z
}
hQ
i Q
1 j ei! 2
j= jj j>1 1
ei!
j
=1
On a donc
f (!) =
2
2"
=
avec =
2
2
j; j j j>1
1
j j j2
<1
87
(23)
Arthur CHARPENTIER
p
X
i= 1
(1)
(2)
(3)
..
.
6
6
6
6
6
6
6
4 (p 1)
(p)
3
7
7
7
7
7
7
7
5
6
6
6
6
6
6
=6
6
6
6
6
4
(1)
(2)
(1)
(1)
(2)
..
.
(1)
1
..
..
.
(p 1) (p 2)
(p 3)
..
..
..
..
3
(p 1) 7 2
1
7
..
. (p 2) 7 6 2
76
7 6 3
6
(p 3) 7
7 6 ..
7
6
..
76 .
.
7 4 p1
7
p
1
(1) 5
(1)
1
3
7
7
7
7
7
7
7
5
Preuve. En eet, 8h > 0; (h) ' 1 (h 1) ' p (h p) = 0. Le polynme caractristique de cette relation
de rcurrence est :
'p1
'p
'
1
z p ' 1 z p 1 ' p1 z ' p = z p 1 1 p1 p = zp ( );
z
z
z
z
avec (L)Xt = "t et(L) = 1 '1 L ' p Lp . Les racines du polynme caractristique sont les i = z1i (les zi tant
les racines de ) avec j ij < 1. La forme gnrale de la solution est, si z1 ; : : : ; zn sont des racines distinctes de de
multiplicits respectives m1 ; : : : ; mn
n m
i 1
X
X
(h) =
ik ki h k
i=1 k=0
Proprit 35 (i) Pour un processus AR (p) les autocorrlations partielles sont nulles au del de rang p, (h) = 0
pour h > p:
(ii) Pour un processus AR (p) les autocorrlations inverses sont nulles au del de rang p, i (h) = 0 pour h > p:
Preuve. (i) Si (Xt ) est un processusAR(p) et si (L)Xt = + "t est sa reprsentation canonique, en notant (h)
le coecient de Xth dans E L(Xt jXt1 ; : : : ; Xt h ) alors,
Xt = +
+ "t
Arthur CHARPENTIER
2
2
2
1
f X (!) (ei! ) = f "(!) = " donc f X (!) = "
:
2
2 j(e i! )j2
Par consquent,
2
1
2
= 2 (e i! )
f X (!)
"
p
X
k e i!k
k=0
!0
@
p
X
k=0k
ei!k A =
2
2"
k l ei!(kl) ;
0k;l p
Z
2 X
4 2
4 2
0 p = 2 ' p 6= 0:
2
"
"
Cette mthode pourra tre utilise pour identier les processus AR (p) :
6.4.3
Le processus AR (1)
et donc E (Xt Xt h) = h 2 . Or pour un processus stationnaire, il est possible de montrer que E (Xt Xt h)
4V (Xt). Puisquil est impossible que pour tout h, h 2 4V (Xt), le processus nest pas stationnaire.
Si jj 6= 1, il existe un unique processus stationnaire tel que Xt Xt 1 = " t pour tout t 2 Z, ou
(1 L) Xt = "t :
(ii) si jj < 1 alors on peut inverser le polynme, et
Xt = (1 L)1 "t =
1
X
i= 0
1
F
"t =
1
X
i=1
89
(24)
Arthur CHARPENTIER
t = (1 F ) (1 L)
1
Xt 1 = t;
X
"t = " t+1 + 1 2
i "ti :
i=0
2
1
;
2
2 1 + 2 cos !
qui correspond au graphique ci-dessous, avec > 0 (les courbes sont ici prsentes dans la mme base 1 : f (0) = 1),
=5
= 0.5
= 1.05
0
/6
= 2.5
= 0.8
/3
/2
2/3
5/6
Les valeurs les plus importantes sont obtenues aux basses frquences, les fonctions tant dcroissantes sur [0; ].
Dans les trois exemples ci-dessous, les " t seront pris gaussiens, "t s N (0; 1)
Exemple 45 Processus AR (1), = 0:2 - Dans le cas o est relativement faible
3
2
1
0
-1
-2
-3
20
40
60
80
90
Arthur CHARPENTIER
-2
-4
20
40
60
80
20
40
60
80
Remarque 34 Les graphiques ci-dessous reprsentent des simulations de processus AR (1), avec dirents coecients
, repectivement, de gauche droite et de bas en haut 0:1, 0:5, 0:9, 0:95, 1, puis 1:002, 0:5, 0:9, 1 et 1:001,
4
10
15
40
10
20
5
-5
-2
-4
-5
-2
-4
500
1000
1500
2000
-20
-10
500
1000
1500
-10
2000
500
AR1_050
AR1_010
50
-50
1000
1500
-15
2000
500
AR1_090
1000
1500
2000
-40
500
AR1_095
1000
1500
2000
AR1_10
30
150
20
100
400
10
50
200
-10
-50
-200
-20
-100
-400
-30
2000
-150
2000
600
-4
-100
-150
-8
-200
-12
500
1000
AR1_1002
1500
2000
500
1000
AR1_M090
1500
500
1000
AR1_M099
1500
500
1000
AR1_M100
1500
-600
2000
500
1000
1500
2000
AR1_M1001
Comme on peut le voir, on retrouve une marche alatoire pour 1, et des processus explosifs quand jj > 1.
A retenir 6 Un processus AR (1) : Xt = Xt1 + "t sera auto-corrl positivement si 0 < < 1, et autocorrl
ngativement si 1 < < 0. Cette srie va osciller autour de 0, en sen cartant suivant la valeur "t du processus
dinnovation (si 1 < < +1). Si = +1, on obtient une marche alatoire, et si > +1 ou < 1 le processus
91
Arthur CHARPENTIER
nest par stationnaire, et on obtient un modle qui explosera ( moyen terme). La valeur , dans le cas o le processus
est stationnaire, est la corrlation entre deux dates conscutives = corr (Xt ; Xt1 ).
8
AR (1) :
>
premire non nulle (signe = signe de )
>
: Fonction dautocorrlation partielle
toutes nulles aprs
6.4.4
Le processus AR (2)
Ces processus sont galement appels modles de Yule, dont la forme gnrale est
1 1 L 2 L2 Xt = "t ;
o les racines du polynme caractristique (z) = 1 1 z 2 z 2 sont supposes lextrieur du disque unit (de telle
sorte que le processus "t corresponde linnovation). Cette condition scrit
8
< 1 1 + 2 > 0
1 + 2 > 0
: 2 1
1 + 42 > 0;
cest dire que le couple (1 ; 2 ) doit se trouver dans une des 4 parties ci-dessous,
2
20
40
60
80
92
Arthur CHARPENTIER
20
40
60
80
20
40
60
80
-2
-4
20
40
60
80
Dans le cas dun modle AR (2) avec constante, de la forme 1 1 L 2 L2 Xt = 0 + "t on peut alors noter
que lesprance de Xt est
0
E (Xt ) =
ds lors que 1 + 2 6= 1:
1 1 2
En utilisant les quations de Yule Walker, nous avions not que la fonction dautocorrlation vriait la relation de
rcurence suivante,
(0) = 1 et (1) = 1 = (1 2 ) ;
(h) = 1 (h 1) + 2 (h 2) pour h 2;
93
Arthur CHARPENTIER
cest dire que le comportement de cette suite peut tre dcrit en tudiant le polynme caractristique
associ,
q
2
2
x 1 x 2 = 0. Dans le cas o le polynme admet deux racines relles, ! 1 et !2 o ! = 1 1 + 42 =2,
p une
volution sinusodale amortie. On obtient alors des cycles stochastiques, de longueur moyenne 2= cos 1 1 =2 2 .
A retenir 7 Le comportement dun processus AR (2) : Xt = 1 Xt1 + 2 Xt 2 + "t dpendra fortement des racines
de son quation charactristique 1 1 :z 2 :z 2 = 0. Le cas le plus intressant est celui o lquation charactristique
a deux racines complexes conjugues r exp (i) pour r < 1 : le processus est alors stationnaire (et oscille alors
autour de 0, sans exploser, de la mme faon que les processus AR (1) dans le cas o jj < 1). Le processus est alors
quasi-cyclique, de frquence , avec un bruit alatoire.
8
dcroissance
exponentiel le ou sinusode amortie
< Fonction dautocorrlation
AR (2) :
deux premires non nulles
: Fonction dautocorrlation partielle
toutes nulles aprs
6.5
Dnition 40 On appelle processus moyenne mobile (moving average) dordre q, not M A (q), un processus stationnaire (Xt ) vriant une relation du type
Xt = " t +
q
X
i=1
(25)
o les i sont des rels et ("t) est un bruit blanc de variance 2 . (25) est quivalent lcriture
Xt = (L) "t o (L) = I + 1 L + ::: + q Lq :
Remarque 35 Encore une fois, nous allons utiliser dans cette partie des modles de la forme (25), toutefois, dans
certains ouvrages, la convention est dcrire ces modles sous la forme (L) = I 1 L ::: q Lq . En particulier
pour les logiciels dconomtrie, il convient de vrier le signe attribu aux coecients de la forme M A (cf exercice
15 de lexamen de 2002=2003).
Contrairement aux processus AR (p), les processus
M A (q) sont toujours des processus stationnaires. Les processus
P1
M A (1) sont stationnaires si et seulement si i=1 2i est nie. Pour rappel, un processus AR (p) est stationnaire si
les racines du polynme retard sont lextrieur du cercle unit.
De la mme faon que pour les AR (p), il est possible dinverser le polynme dans le cas o ses racines sont de
module dirent de 1 (quitte changer des bruit blanc, comme pour les processus AR). Supposons que nait pas de
racines de module gal 1, et considrons le polynme obtenu en remplaant les racines de de module infrieur
1 par leur inverse. Le processus ( t ) dni par la relation Xt = (L) t est l aussi un bruit blanc, dont la variance
2 est dnie par
" p
# 1
Y
2
2
2
=
ji j
;
i=r+ 1
o i sont les racines de module infrieur 1. Aussi, la variance de ( t ) est ici suprieure celle de ("t ). Par le suite,
on supposera que le processus M A est sous forme canonique, cest dire que toutes les racines de sont de module
suprieur 1.
6.5.1
E (Xt Xth )
E (["t + 1 "t1 + ::: + q "tq ] ["th + 1 "t h1 + ::: + q "t hq ])
[ h + h+1 1 + ::: + q q h] 2 si 1 h q
0
si h > q;
94
Arthur CHARPENTIER
(0) = 1 + 21 + 22 + ::: + 2q 2 :
(k) = 2
q
X
j j+ k avec la convention 0 = 1:
j=0
Do la fonction dautocovariance,
(h) =
h + h+1 1 + ::: + q q h
1 + 21 + 22 + ::: + 2q
si 1 h q;
40
60
On retrouve bien sur cette simulation de processus M A (5) le fait que les autocorrlations sannulent pour h > 5.
A retenir 8 Les processus M A sont toujours stationnaire, mais ils ne sont inversibles que si les racines du polynme
charactristiques sont lextrieur du disque unit.
On peut noter que sil ny a pas de rsultat particulier pour les autocorrlations partielles, on a malgr tout le
rsultat suivant
Proprit 37 Si (Xt) suit un processus M A (q), Xt = (L)"t = "t + 1 "t 1 + ::: + q "t q , alors les autocorrlations
inverves i (h) satisfont les quations de Yule-Walker inverse,
i (h) + 1i (h 1) + ::: + q i (h q) = 0 pour h = 1; 2; :::; q:
En particulier, i(h) dcroit exponentiellement avec h.
Preuve. Par dnition i(h) = i(h)=i (0) avec i(h) =
f X (!) =
1
ei!h d!.
fX(! )
2
2"
1
2
(ei! ) et donc
=
:
2
2
f X (!)
2" j(e i! )j
Soit (Y t )t2Z un processus tel que (L)Y t = t i.e. (Y t ) suit un processus AR (q), et
2
2
= fY (!) (ei! ) :
2
95
Arthur CHARPENTIER
Donc :
fY (!) =
de telle sorte que
fY (!) =
6.5.2
2
1
;
2 j(ei! )j2
2
1
2
4 2
() 2 =
() 2 = 2 :
fX (!)
"
2
"
Le processus M A (1)
1 + 2
; et (h) = 0; pour h 2:
On peut noter que 1=2 (1) 1=2 : les modles M A (1) ne peuvent avoir de fortes autocorrlations lordre 1.
Lautocorrlation partielle lordre h est donne par
(h) =
h
(1) h 2 1
1 2(h+1)
a i (h) =
(1) i
1 2h+2
(1) 2h+ 2i
1 2h+2
dans le cas o 6= 1.
La densit spectrale dun processus M A (1) est de la forme
fX (!) =
2
1 + 2 + 2 cos ! ;
2
correspondant un trend dterministe, auquel vient sajouter une constante. De cette dernire expression, on peut en
dduire aisment que les autocorrlations inverses, dans le cas dun processus M A (1) vrient
i (h) =
1 + 2
pour tout h 1.
40
60
80
96
Arthur CHARPENTIER
20
40
60
80
-2
-4
20
40
60
80
Remarque 36 Les graphiques ci-dessous reprsentent des simulations de processus M A (1), avec dirents coecients
, repectivement, de gauche droite 0, 1, 2, 5,1 et 2
6
10
20
10
10
-5
-10
-5
4
2
2
0
-2
-2
-4
-4
500
1000
1500
2000
-10
-6
500
MA1_0
1000
1500
2000
-20
500
1000
1500
2000
500
MA1_2
MA1_1
1000
1500
-10
2000
500
MA1_5
Comme on peut le voir, ces processus sont toujours stationnaires, quel que soit .
A retenir 9
M A (1) :
6.5.3
8
>
>
< Fonction dautocorrlation
>
>
: Fonction dautocorrlation partielle
Le processus M A (2)
1000
MA1_M2
1500
2000
Arthur CHARPENTIER
2
2
< 1 [1 + 2 ] = 1 + 1 + 2 pour h = 1
(h) =
= 1 + 21 + 22 pour h = 2
: 2
0 pour h 3;
et la densit spectrale est donne par
2
fX (!) = 1 + 1 ei! + 2 e2i! :
2
0
-2
-4
-6
20
40
60
80
Exemple 57 Processus M A (0:5; 0:3) - cas 2 - les deux premires autocorrlations sont telles que (1) 0 et
(2) 0 (puis nulles ensuite)
4
-2
-4
20
40
60
80
Exemple 58 Processus M A (0:5; 0:7) - cas 3 - les deux premires autocorrlations sont telles que (1) 0 et
(2) 0 (puis nulles ensuite)
4
-2
-4
20
40
60
80
98
Arthur CHARPENTIER
Exemple 59 Processus M A (0:5; 0:7) - cas 4 - les deux premires autocorrlations sont ngatives (et nulles ensuite)
4
3
2
1
0
-1
-2
-3
20
40
60
80
6.6
p
X
i Xti = "t +
i=1
q
X
j=1
(26)
o les i sont des rels et ("t) est un bruit blanc de variance 2 . (22) est quivalent lcriture
(L) = I + 1 L + ::: + q Lq
(L) Xt = (L) "t o
(L) = I 1 L ::: p Lp
On supposera de plus de les polymes et nont pas de racines en module strictement suprieures 1 (criture sous
forme canonique), et nont pas de racine commune. On supposera de plus que les degrs de et sont respectivement
q et p, au sens o q 6= 0 et p 6= 0. On dira dans ce cas que cette criture est la forme minimale.
Les processus ARM A (p; q) peuvent donc se mettre
(i) sous la forme M A (1) en crivant Xt = (L)1 (L) " t, si toutes les racines de sont lextrieur du disque
unit.
1
(ii) ou sous forme AR (1) en crivant (L) (L) Xt = "t ; si toutes les racines de sont lextrieur du disque
unit.
Remarque 37 Un processus AR (p) est un processus ARM A (p; 0) et un processus M A (q) est un processus ARM A (0; q) :
6.6.1
Proprit 38 Soit (Xt ) un processus ARM A (p; q), alors les autocovariances (h) satisfont
(h)
p
X
i=1
i (h i) = 0 pour h q + 1:
p
X
j Xtj = " t +
j=1
q
X
j "t j
j=1
99
(27)
Arthur CHARPENTIER
Proprit 39 Soit (Xt ) un processus ARM A (p; q), alors les autocorrlations (h) satisfont
(h)
p
X
i=1
(28)
Xt =
h j "t j :
j=0
Exemple 60 Les sorties ci-dessous correspondent aux autocorrlogrammes de processus ARM A (2; 1), ARM A (1; 2)
et ARM A (2; 2) respectivement de gauche droite
Pour tablir une rgle quant au comportement de la fonction dautocorrlation, deux cas sont envisager,
Si p > q, la fonction dautocorrlation se comporte comme un mlange de fonctions exponentielles/sinusodales
amorties
Si q p, le q p +1 premires valeurs de lautocorrlogramme ont un comportement propre, et pour k q p +1,
lautocorrlogramme tend vers 0.
Des proprits symtriques existent pour lautocorrlogramme partiel.
Remarque 38 Avec les notations (26), la variance de Xt est donne par
V (Xt) = (0) =
6.6.2
1 + 21 + ::: + 2q + 21 1 + ::: + h h
1 21 ::: 2p
2 o h = min (p; q) :
Proprit 40 La densit spectrale du processus ARM A (Xt ) stationnaire est une fraction rationnelle en exp (i!), et
est donne par
2
2 j (exp [i!])j
f X (!) =
:
2 j (exp [i!])j2
6.6.3
(1 L) (1 + L)
o
Xt = (L) Xt = "t ;
h
i
h
(L) = (1 L) 1 L + 2 L2 + ::: + (1) h Lh + :: ;
100
aussi
(L) =
+1
X
iL o
i=0
Arthur CHARPENTIER
0 = 1
i = (1)i [ + ] i 1 pour i 1:
(1) = (1 + ) ( + ) = 1 + 2 + 2
(h) = h (1) pour h 2;
et la fonction dautocorrlations partielles a le mme comportement quune moyenne mobile, avec comme valeur initiale
a (1) (1). La sortie ci-dessous montre lvolution de lautocorrlogramme dans le cas dun ARM A (1; 1)
A retenir 10
ARM A (1; 1) :
6.7
Fonction dautocorrlation
Fonction dautocorrlation partielle
Tous les processus dcrits dans les parties prcdantes sont des processus stationnaires (Xt ). En fait, la plupart des
rsultats obtenus dans les parties prcdantes reposent sur lhypothse (trs forte) de stationnarit. Cest le cas par
exemple de la loi des grands nombres telle quelle est formule dans le thorme ergodique. On peut toutefois noter
quun certain nombre de processus, trs simples, sont non-stationnaires.
Exemple 61 Marche alatoire - La marche alatoire est dnie de la faon suivante : soit "1 ; :::; "t ; ::: une suite
de variables i:i:d: et on supposera que " t ademet une variance nie, note 2 . On supposera galement les "t centrs.
Une marche alatoire Y t vrie
Y t = Y t1 + " t; pour tout t;
avec la convention Y 0 = 0. On peut noter que Y t = Y 0 + Y 1 + ::: + Yt 1 . On a alors
s^t
E (Y t) = 0
, cov (Y s; Y t ) = 2 (s ^ t) et corr (Y s ; Yt ) = p
pour s; t 0:
V (Y t) = 2 t
st
En notant F t la ltration gnre par les Y0 ; :::; Y t , cest dire F t = fY 0 ; :::; Y tg, on peut montrer que
E (Y s jF t ) = Y t pour tout s t 0:
Aussi, le processus (Yt ), muni de sa ltration naturelle, est une martingale. La marche alatoire est stationnaire en
moyenne, mais pas en variance. La non stationnarit de cette srie pose de gros problme statistique : considrons
par exemple la moyenne dnie sur les n premires observations, soit
Yn =
n
1X
Yt ;
n
t=1
alors, de faon triviale, E Y n = 0 mais V Y n = O (n) : Plus prcisment, la variance de cette moyenne est
n (n + 1) (2n + 1)
V Y n = 2
:
6n2
101
Arthur CHARPENTIER
Exemple 62 Tendance linaire -Un processus tendance linaire est dni de la faon suivante : soit " 1 ; :::; " t; :::
une suite de variables i:i:d: et on supposera que "t ademet une variance nie, note 2 . On supposera galement les
"t centrs. Une tendance linaire Y t vrie
Y t = t + "t pour tout t, o 2 R.
Ce processus vrie
E (Y t ) = t
V (Y t ) = 2
et E (Y s jFt ) = s pour tout s t 0. Cest dire que ce processus nest pas une martingale, et les variables du
processus sont indpendantes (au sens non-corrles). En notant comme prcdemment Y n .la moyenne des n premires
observations, on a
n+1
2
E Yn =
et V Y n =
! 0 quand n ! 1:
2
n
Exemple 63 March alatoire avec drift - Ce processus est dni comme mlange des deux prcdants : soit Xt
une marche alatoire, soit Xt = Xt1 + "t , alors Y t , marche alatoire avec drift, est dni par
Yt
= t + Xt pour tout t, o 2 R
E (Y t ) = t
V (Y t ) = 2 t
s^t
cov (Ys ; Y t) = 2 (s ^ t) et corr (Y s; Y t ) = p pour s; t 0;
st
6.8
Lhypothse de stationnarit, prsente - sous certaines conditions - dans les modles ARM A, nest que rarement
vrie pour des sries conomiques. En revanche, on peut considrer les dirences premires Xt = Xt Xt 1 , ou
des dirences des ordres plus levs
Xt = Xt Xt1 = (1 L) Xt
d
d Xt = (1 L) Xt
102
Arthur CHARPENTIER
Dnition 42 Un processus (Xt ) est un processus ARIM A (p; d; q) - autorgressif moyenne mobile intgr - sil vrie
une quation du type
d
(L) (1 L) Xt = (L) "t pour tout t 0
o
(L) = I 1 L 2 L2 + ::: p Lp o p 6= 0
(L) = I + 1L + 2 L2 + ::: + q Lq o q 6= 0
sont des polynmes dont les racines sont de module suprieur 1, et o les conditions initiales
Z 1 = fX1 ; :::; X p ; "1 ; :::; "q g
sont non-corrles avec " 0 ; :::; " t; ::: et o le processus ("t ) est un bruit blanc de variance 2 :
Remarque 39 Si les processus ARM A peuvent tre dnis sur Z, il nen est pas de mme pour les processus ARIM A
qui doivent commencer une certaine date (t = 0 par convention), avec des valeurs initiales (q valeurs pour les "t , et
p + d pour Xt ). En eet, si lon considre un processus Xt , ARIM A(0; 1; 0) (= marche alatoire), soit (1 L) Xt = " t.
On peut crire
t
t
X
X
Xt = X0 +
" k mais pas Xt =
"k
k= 1
k=1
car cette somme ne converge pas dans L : Cette importance de linitialisation peut se comprendre sur les graphique
ci-dessous : considrer un processus AR (1) simul (ou un processus ARM A de faon plus gnrale), partir de la
date t = 0 : on peut noter qu relativement court terme les processus (Xt) et (Yt ) simuls respectivement partir de
x et y sont indentiques : L (Xt ) = L (Y t ), les deux processus ont la mme loi, quelle que soit la valeur initiale (i.e.
une loi normale dans le cas dun bruit blanc gaussien).
6
-2
-2
-4
-4
3
2
20
20
15
15
10
10
1
0
-1
500
1000
1500
2000
-2
500
AR1_INIT_0
1000
1500
-3
2000
10
15
AR1_INIT_1
20
25
30
35
40
45
50
-5
500
AR1_INIT_1
1000
1500
2000
-5
5
10
AR1_INIT_30
15
20
25
30
35
40
45
AR1_INIT_30
En revanche, pour un processus ARIM A (1; 1; 0) - cest dire un processus AR (1) intgr, la valeur initiale est trs
importante : pour deux valeurs initiales direntes, les deux processus nont pas la mme loi L (Xt ) 6= L (Y t ),
6
20
15
80
100
60
80
40
60
10
120
-4
-5
1000
AR1_INIT_1
1500
2000
40
20
-20
500
1000
AR1_INIT_30
1500
2000
-40
-40
-20
500
80
20
40
-2
120
-40
500
1000
1500
ARIMA11_INIT_30
-60
2000
500
1000
ARIMA11_INIT_0
1500
-80
2000
500
1000
ARIMA11_INIT_0
1500
2000
ARIMA11_INIT_30
Les deux processus intgrs, droite, ont sensiblement des lois direntes la date t:
Remarque 40 Soit Y t un processus intgr dordre d, au sens o il existe (Xt ) stationnaire tel que Y t = (1 L)d Xt
satisfaisant (L) Y t = + (L) "t Alors, (Y t ) nest pas un processus ARM A car il ne commence pas en 1. En
fait, (Y t ) est asymptotiquement quivalent un processus stationnaire ARM A:
Proprit 41 Soit (Xt) un processus ARIM A (p; d; q) alors le processus d Xt converge vers un processus ARM A (p; q)
stationnaire.
103
6.8.1
Arthur CHARPENTIER
t
X
j=1
hj "tj + h (t) Z 1 ;
o les h j sont les coecients de la division selon les puissances croissantes de par ; et h (t) est un vecteur (ligne)
de fonctions de t
(ii) (Xt ) peut scrire sous la forme suivante, fonction du pass de Xt
Xt =
t
X
j= 1
o les j sont les coecients (pour j 1) de la division selon les puissances croissantes de par ; et h (t) est un
vecteur (ligne) de fonctions de t quand tend vers 0 quand t ! 1.
Preuve. (ii) La division selon les puissances croissantes de I par scrit, lordre t,
I =Qt (Z) (Z) + Z t+1 Rt (Z) o deg (Qt ) = t et deg (Rt ) q 1:
d
Posons (L) = (1 L) (L). Alors lquation (L) Xt = (L) "t peut scrire, en multipliant par Q t (Z),
Qt (Z) (L) Xt = Q t (Z) (L) "t = ILt+1 Rt (L) "t = "t Rt (L) " 1 :
En posant t (L) = Qt (Z) (L) (de degr p + d + t ni ) on peut crire t (L) Xt = "t Rt (L) " 1 ; soit
p+d+t
X
j=0
j Xtj = " t
q1
X
j=0
rj " 1 j ;
j=0
6.9
t+p+d
j Xt j = "t
j=t+1
q1
j Xt j
{z
X
j=0
rj "1 j :
h0 (t)Z1
Les modles SARIM A peuvent vus comme une gnralisation des modles ARIM A, contenant une partie saisonnire.
Dnition 43 De faon gnrale, soient s1 ; :::; sn n entiers, alors un processus (Xt ) est un processus SARIM A (p; d; q)
- autorgressif moyenne mobile intgr saisonnier - sil vrie une quation du type
(L) (1 Ls1 ) ::: (1 Lsn ) Xt = (L) "t pour tout t 0
o (L) = I 1 L 2 L2 + ::: p Lp o p 6= 0 et (L) = I + 1L + 2 L2 + ::: + q Lq o q 6= 0.sont des polynmes
dont les racines sont de module suprieur 1, et o les conditions initiales
Z 1 = fX1 ; :::; X p ; "1 ; :::; "q g
sont non-corrles avec " 0 ; :::; " t; ::: et o le processus ("t ) est un bruit blanc de variance 2 :
Cette forme inclue les modles ARIM A puisquil sut de prendre n = d et s1 = ::: = sn = 1. Toutefois, les deux
formes les plus utilises sont les suivantes,
(L) (1 Ls ) Xt = (L) "t pour tout t 0
d
(L) (1 Ls ) (1 L) Xt = (L) "t pour tout t 0
o un seul facteur saisonnier s intervient, soit appliqu un processus ARM A dans le premier cas, soit appliqu un
processus ARIM A dans le second cas.
104
Arthur CHARPENTIER
(1) =
1 + 2
=
;
1 + 2
(1 + 2 ) 1 + 2
;
(1 + 2 ) 1 + 2
1 + 2
(S) =
;
2 =
2
(1 + ) 1 +
1 + 2
(S 1) =
(S + 1) =
(1 +
;
1 + 2
2)
et (h) = 0 ailleurs. On peut noter que (S 1) = (S + 1) = (1) (S) : Le graphique suivant montre
lautocorrlogramme (empirique) dun tel processus simul
6
4
2
0
-2
-4
-6
100
200
300
400
500
600
700
800
A1
Pour les autocorrlations partielles, jusquen S 2 (inclus), la fonction dautocorrlation partielle est celle dun M A (1)
de paramtre , puis la fonction est signicative en S 1; S et S + 1.
Exemple 68 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par
1 + 2
=
(1) =
;
1 + 2
(1 + 2 ) 1 + 2
h
i
2
( ) = 1 2
h
(S 1) =
i ;
(1 + 2 ) 1 + ( ) 2 = 1 2
1 + 2
(S) =
S1 ;
105
Arthur CHARPENTIER
(kS) = k1 (S) : Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul
6
4
2
0
-2
-4
-6
100
200
300
400
500
600
700
800
A2
Les autocorrlations partielles sont non nul les en 1, S et S + 1. De plus la fonction dautocorrlation vrie lquation
de rcurence
(h) (h 1) (h S) + (h S 1) = 0;
qui a pour polynme caractristique (z ) z S , qui a pour racines et les racines S-imes de . Le graphique
suivant montre lautocorrlogramme (empirique) dun tel processus simul
6
4
2
0
-2
-4
-6
-8
100
200
300
400
500
600
700
800
A3
On se retrouve dans un cadre assez proche de celui dvelopp dans lexemple (67), et lon obtient la fonction dautocorrlation
suivante
(1) =
:
2 , (S 1) =
2 et (S) =
2
2
1+ +
1+ +
1 + 2 + 2
106
Arthur CHARPENTIER
4
2
-2
-4
100
200
300
400
500
600
700
800
A4
On se retrouve dans un cadre assez proche de celui dvelopp dans lexemple prcdant, et lon obtient la fonction
dautocorrlation suivante
+
(1) =
, (S 1) =
;
2
2
2
2
1+ + +
1 + + 2 + 2
(S) =
et (S + 1) =
:
2
2
2
2
1+ + +
1 + + 2 + 2
4
2
0
-2
-4
100
200
300
400
500
600
700
800
A5
6.10
Thorme de Wold
Thorme 7 Tout processus (Xt ), centr, et stationnaire au second ordre, peut tre reprsent sous une forme proche
de la forme M A
1
X
Xt =
j "tj + t ;
j= 0
(1)
(2)
t 6= s;
(3)
(4)
(5)
(6)
<
1 et 0 = 1;
j=0 j
les coecients j et le processus ("t ) sont uniques,
( t ) vrie t = E L ( t jXt1 ; Xt2 ; :::) :
107
Arthur CHARPENTIER
La proprit (1) signie que ("t) est lestimation de Xt comme combinaison linaire des valeurs passes, et (2)
est simplement lcriture des conditions dorthogonalit de la pro jection. La proprit (4) est une consquence de
la stationnarit du processus Ce thorme se dmontre avec les direntes proprits des espaces de Hilbert. Ce
thorme dit juste que (Xt ) peut tre crit comme une somme des erreurs de prvision.
Remarque 41 Ce thorme ne dit pas que les "t suivent une loi normale, ou que les "t sont i.i.d. (ils ont la mme
variance et sont non-corrls).
Remarque 42 La proprit (2) dit que E L (" tjXt1 ; Xt2 ; :::) = 0, ce qui ne signie pas que E ("t jXt 1 ; Xt 2 ; :::) = 0.
Lcriture E L (Y jXt 1 ; Xt 2 ; :::) signie que lon recherche la meilleure approximation de Y comme combinaison
linaire du pass de Xt ; 1 Xt1 + 2 Xt 2 + ::: + h Xth + :::. Lesprance conditionnelle E (Y jXt1 ; Xt 2 ; :::) est
elle la meilleure approximation de Y comme fonction du pass de Xt , g (Xt1 ; Xt 2 ; :::; Xt h ; ::), o g nest pas
ncessairement linaire.
Remarque 43 Cette reprsentation nest unique que parce que lon a les direntes conditions, en particulier (1) et
(3). Par exemple, un processus de la forme Xt = t + 2 t1 o ( t ) est i.i.d. et de variance 1, est stationnaire. Mais
sous cette forme, le polynme M A nest pas inversible. Pour trouver la reprsentation de Wold de ce processus, on va
chercher et "t tels que Xt = "t + " t1 . On peut alors montrer que V (" t) = 2= et que est ncessairement soit
gal 2, soit gal 1=2: Le cas = 2 et V ("t) = 1 correspond lcriture initiale. Mais = 1=2 et V ("t ) = 4 marche
galement, et le polynme M A est alors inversible (comme nous lavons vu prcdement, il est toujours possible de
rcrire un processus M A ou AR de faon inversible, condition de changer la variance du bruit). Cette reprsentation
est alors la rpresentation de Wold.
Remarque 44 Ce thorme peut scrire de faon plus simple si lon nest pas intress par lunicit de lcriture :
tout processus (Xt ) stationnaire peut se mettre sous forme M A (1),
Xt = +
1
X
j "tj :
j=0
6.11
Comme le rappelle Bourbonnais (1998), lanalyse des sries temporelles dans le dommaine des frquences (ou analyse
spectrale) est souvent plus riche en terme dinterprtation, mais ncessite un recours des techniques mathmatiques
plus complexes. Le principe de base de lanalyse de Fourier est que toute fonction analytique dnie sur un intervalle
(ni ) de R peut scrire comme somme pondre de fonctions sinus et cosinus.
6.11.1
Thorie spectrale Lanalyse spectrale, ou analyse harmonique, est une gnralisation au cas alatoire de
lanalyse de Fourier. Cette analyse sappuie sur deux rsultats de base : le thorme de Loeve et le thorme de
Khintchine. Le premier prsente la dcomposition harmonique de (Xt ) sous la forme
Xt =
+1
dans laquelle les dUZ () sont des variables alatoires (complexes ), alors que le second est quivalent au prcdant,
mais porte sur la fonction dautocovariance de (Xt),
Z +1
(h) =
exp (i2h) E jdUZ ()j2 :
1
Thorme 8 (de Khintchine) La densit spectrale de puissance dun processus alatoire stationnaire est gale la
transforme de Fourier de sa fonction dautocorrlation
On a alors lcriture suivante
f X (!) =
Z
+1
1 X
(h) e i!h ou (h) =
ei!h fX (!) d!, o (h) = cov (Xt ; Xth ) ;
2
0
h= 1
Arthur CHARPENTIER
Filtre et processus strochastiques Etant donn un processus (Xt), un ltre est une transformation
qui associe
1
2
au processus
(X
)
un
autre
processus
Y
=
F
(X
).
Par
exemple,
on
dira
quun
ltre
est
linaire
si
F
X
t
t
t + Xt =
1
t 2
F Xt + F Xt .
De faon gnrale, on pourra considrer les ltres linaires de la forme suivante
X
F (Xt) =
(i) Xt+i ;
i2Z
o les (i) sont les coecients de pondration, cest dire des ltres moyennes mobiles. Considrons ainsi une
fonction dnie sur Z et valeurs dans R (ou C), appartenant lespace des fonctions de carr intgrable sur R, alors
admet une transforme de Fourier, note A (!) appele fonction de rponse en frquence du ltre :
A (!) =
+1
1
2
+1
Daprs le thorme de Wold, un processus stationnaire est une combinaison linaire innie des valeurs passes dun
bruit blanc, cest dire quil peut scrire comme un processus M A (1) :
Xt = (L) "t =
+1
X
k "t k o 0 = 1:
k= 0
Cest dire que (Xt) est la rponse un ltre dun processus (" t), bruit blanc (la stabilit tant assure par la
convergence de la somme des carrs de i ). Les i sont alors la fonction de rponse impulsionnelle du ltre. La
fonction de gain du ltre scrit
+1
2
X
i!k
T (!) = jA (!)j =
ie
;
k= 0
avec A (!) correspondant la fonction de rponse en frquence au ltre. On a alors la relation suivante entre les
spectres des deux processus,
f X (!) = T (!) f" (!) :
Or, le spectre du bruit blanc vrie f " (!) = 2" =2, et donc
f X (!) =
2"
2
+1
X
2
2
i!k
k e
= " e i!k :
2
k=0
2
2" 1 + 1 e i! + 2 e2i! + ::: + q e qi!
f X (!) =
:
2 1 1 e i! 2e 2i! ::: p e qi! 2
Compte tenu du lien entre la densit spectrale et la fonction dautocorrlation, il est possible dobtenir la densit
spectrale dans plusieurs cas simples.
109
Arthur CHARPENTIER
Exemple 72 Considrons le processus M A (1) suivant : Xt = "t +"t1 o ("t ) suit un bruit blanc de variance 2 .
Pour mmoire, les autocovariances sont donnes par (0) = 1 + 2 2 , (1) = 2 et (h) = 0 pour h 2. Ainsi,
"
#
+1
X
2 1 + 2 cos (!) + 2
1
f (!) =
(0) + 2
(k) cos (k!) =
:
k=1
Exemple 73 Considrons le processus AR (1) suivant : Xt = Xt1 + "t o ("t ) suit un bruit blanc de variance 2 .
Pour mmoire, les autocovariances sont donnes par (0) = 2 = 1 2 , et (h) = (h 1) pour h 1. Ainsi,
(h) = h (0) pour h 1. Cette criture permet dobtenir la relation suivante
"
#
"
#
+1
+1
X
X
i!k
1
(0)
k
i!k
f (!) =
(0) + 2
(k) cos (k!) =
1+
e
+e
k=1
k=1
(0)
e i!k
e i!k
2
=
1+
+
=
:
i!k
i!k
1 e
1 e
1 2 cos (!) + 2
ce qui donne une fonction dcroissante pour > 0 et croissante pour < 0:
Exemple 74 Considrons le processus AR (2) suivant : Xt = Xt 1 + Xt 2 + "t o ("t ) suit un bruit blanc de
variance 2 . Le polynme AR scrit (L) = 1 L L2 dont il faut sassurer que les racines sont lextrieur du
disque unit. Le spectre du processus (Xt ) scrit alors
fX (!) =
2
1
:
2
2
2 1 + + 2 (1 ) cos ! 2 cos 2!
1
1
;
2 1:97 2:52 cos ! + 0:8 cos 2!
0
0
8
0:212
0
11:25
+
%
&
0:38
2.0
1.5
1.0
0.5
0.0
AR11
Les graphiques suivants donnent les volutions de densits spctrales pour dirents processus ARM A. Les
graphiques ci-dessous correspondent des processus AR (1), avec = 0:8 gauche, puis = 0:2 et 0:5 droite,
avec des courbes dcroissantes quand 0 et croissantes quand 0,
1.4
10
1.2
8
1.0
0.8
0.6
0.4
0.2
0.0
AR02
AR03
AR01
110
AR04
AR05
6.11.3
Arthur CHARPENTIER
Supposons que nous ayons T observations dune srie temporelle, avec T impair, soit T = 2m + 1. On dni les
frquences (dites parfois de Fourier ) ! j = 2j=T pour j = 1; :::; m. Considrons alors le modle de rgression
Yt = 0 +
m
X
j cos (! j t) +
j=1
m
X
j sin (! j t) ;
j=1
qui peut tre crit sous forme de modle linaire Y = X + ", avec
0
1
0
Y1
B
C
B
Y = @ ... A , X = @
YT
1
..
.
1
cos (! 1 )
..
.
cos (! 1 T )
1
B
B
cos (! m )
sin (! m )
B
C
B
..
..
,
=
A
B
.
.
B
B
cos (! m T ) sin (! m T )
@
sin (! 1 )
..
.
sin (! 1 T )
0
1
1
..
.
m
m
C
0
C
C
C
B
C et " = @
C
C
A
1
"1
.. C :
. A
"T
1
Lestimation de par la mthode des moindres carrs donne b
= (X 0X) X 0 Y . Compte tenu des proprits suivantes
T
X
cos (! j t) =
t=1
et
T
X
T
X
sin (! j t) = 0,
t=1
t=1
B
B
B
B
b
=B
B
B
@
b0
1
b
b
1
..
.
m
b
b
m
cos 2 (! j t) =
t=1
T
X
0
C
C
C B
C B
C=B
C @
C
A
T
0
..
.
0
0
T =2
..
.
0
cos (! j t) cos (! k t) =
T
X
t=1
0
0
..
.
T =2
1 1 0
C
C
C
A
T
X
sin 2 (! j t) =
t=1
t= 1
T
X
B
B
B
@
(29)
Yt
cos (!1 t) Yt
..
.
P
sin (! m t) Y t
P
T
pour tout j;
2
C B
C B
C=B
A @
P
Y =
P1=T : Y t
2=T : cos (! 1 t) Y t
..
P .
2=T : sin (! m t) Y t
(30)
C
C
C;
A
et la variance empirique des observations (Y t) est donne ( un facteur 1=T prs ) par
2
!2 T
!23
T
m
T
X
X
X
2 X
2
4
Yt Y =
cos (! j t) Y t
+
sin (! j t) Yt 5 :
T
t=1
j=1
t=1
t=1
Tout ceci permet de dnir le priodogramme I (!) de la faon suivante
2
!2 T
!23
T
X
1 4 X
I (!) =
cos (!t) Y t
+
sin (!t) Y t 5 :
T
t=1
t=1
Dans cette expression, un facteur 1=2 a t introduit de telle sorte que la variance empirique, donne par
(0) =
b
1 X
Yt Y ;
T
t= 1
soit gale la somme des aires des m rectangles, de hauteur I (!1 ) ; :::; I (! m ), et de base 2=T . La somme des aires
111
Arthur CHARPENTIER
I(4 )
2/
k=1
Cette fonction I (!) est alors la version discrte et empirique de la densit spectrale f (!).
Proprit 44 Si le processus est stationnaire, et si la densit spectrale existe, alors I (!) est un estimateur sans biais
de f (!) :
que (Y t ) soit un bruit blanc gaussien, cest dire Y1 ; :::; Y T sont i:i:d: et distribus suivant une loi
Supposons
b (!) et B
b (!) sont centrs, et dont les variance sont donnes par
Il est facile de montrer que A
V
T
T
X
X
2
2
b (!) = 2
b (!) = 2
A
cos2 (!t) = T
et V B
sin2 (!t) = T ;
2
2
t=1
t=1
b (!) ; B
b (!) = E
cov A
T
X
s;t=1
= 2
T
X
t=1
= 0:
p
p
b (!) = 2T 2 et B
b (!) = 2T 2 sont indpendant, et asymptotiquement distribus suivant une la mme loi,
De plus, A
h
i
b (!)2 + B
b (!) 2 =T 2 est asyptotiquement distribu suivant une loi du chinormale, centre et rduite. Et donc, 2 A
deux, 2 degrs de libert. Aussi, I (!) s 2 = 2 (2) =2, ce qui montre bien que I (!) est un estimateur sans biais
de f (!) = 2 =, mais il nest pas consistant puisque V (I (!)) = 4 = 2 9 0 quand T ! 1:
Proprit 45 Soit (Y t ) un processus gaussien , de spectre f (!) Soit I (:) le priodogramme obtenu partir de
lchantillon Y 1 ; :::; YT , posons ! j les frquences de Fourier, au sens o ! j = 2j=T pour j < T =2. Dans ce cas,
quand T ! 1 ,on a les rsultats suivants;
(i) I (! j ) s f (! j ) :2 (2) =2
(ii) I (! j ) et I (! k ) sont indpendant pour j 6= k.
Remarque 45 La mthode de calcul des I (!1 ) ; :::; I (!m ) prsent dans cette partie ncessite de lordre de T 2 oprations. La Fast Fourier Transform permet daugmenter les temps de calcul puisque seulement T log 2 T oprations
sont ncessaires (le gain en temps est alors en T = log 2 T : pour 100 observations, les calculs sont alors 15 fois plus
rapides).
112
Arthur CHARPENTIER
Remarque 46 Considrons la srie (Xt ) dnie par Xt = 5 cos (t=36) + 7 sin (t=12) + "t o "t s N (0; 1), reprsente
ci-dessous gauche. Sa densit spectrale est reprsente ci-dessous
On note deux maximums locaux, aux priodes 110 et 35 (correspondants aux paramtres 1=36 et 1=12).
113
Arthur CHARPENTIER
Pour prvoir lavenir, il faut connatre le pass, car les vnements de ce monde
ont en tout temps des liens aux temps qui les ont prcds.
Machiavel, Le Prince.
Louvrage de Box et Jenkins Time series analysis, forecasting and control , publi en 1970 a propos une dmarche
de prvision pour les sries univaries, fonde sur lutilisation de processus ARIM A:
Les tapes pour lestimation des coecients dun processus ARIM A sont les suivantes
(1) identication
(i) choix de d : combien de fois faut-il direncier pour obtenir une srie stationnaire (autocorrlogrammes,
tests statistiques...)
(ii) choix de p et q : ordres respectifs des composantes AR et M A
(2) estimation des paramtres
estimation des i et des j : paramtres respectifs des composantes AR et M A
(3) vrication a posteriori
(i) signicativit des paramtres
(ii) validation de lhypothse de bruit blanc des rsidus
Remarque 47 Il convient de retenir, comme en conomtrie, le modle le plus parcimonieux, utilisant le moins de
paramtres, et ayant le meil leur comportement en prvision.
7.1
7.1.1
Comme nous lavons vu dans la partie (2:4:3), les moments empiriques convergent, avec en plus normalit asymptotique
(sous certaines conditions ).
En pratique, si b
(h) est proche de 1 (pour un grand nombre de retards ), on a une racine unit, et le processus nest
pas stationnaire. On peut gallement penser direncier si les premiers (h) sont proches les uns des autres, mme
si (1) semble assez dirent de 1.
Il est noter que pour des sries conomiques, il est assez rare davoir d 3.
Exemple 75 Les graphiques ci-dessous reprsentent les sries (en haut) et les autocorrlogrammes (en bas) de Xt,
de Xt et de 2 Xt
14000
50
12000
40
10000
30
8000
20
6000
4000
10
-2
2000
0
-2000
100
200
300
400
500
X
600
700
-10
100
200
300
400
DX
114
500
600
700
-4
100
200
300
400
D2X
500
600
700
Arthur CHARPENTIER
On peut dailleurs noter que si lon continue direncier, on a toujours des sries stationnaires
6
10
4
5
2
0
-2
-5
-4
-6
100
200
300
400
500
600
-10
700
D3X
7.1.2
100
200
300
400
500
600
700
D4X
La prsentation sera ici inspire de celle de Hamilton Time Series Analysis (1994).
Le test de Dickey & Fuller simple Ce test permet de tester lhypothse H0 : le processus suit une marche
alatoire contre lhypothse alternative Ha : le processus suit un modle AR (1). Ces tests peuvent tre regroups en
4 cas :
(1) Y t = Y t1 + "t : on teste H0 : = 1 (marche alatoire sans drive)
(2) Y t = + Y t1 + "t : on teste H0 : = 0 et = 1 (marche alatoire sans drive)
(3) Y t = + Y t1 + "t : on teste H0 : 6= 0 et = 1 (marche alatoire avec drive)
(4) Y t = + t + Y t1 + "t : on teste H 0: = 0; = 0 et = 1 (marche alatoire sans drive )
Le test de Dickey & Fuller, dans le cas (1), se construit comme un test de Sutdent de lhypothse = 1, ou plutt
1 = 0. Etant donn lestimateur naturel de , on peut noter que
P
"tY t1
1 = P
b
Y t1
Le test de Dickey & Fuller augment Ce test permet de tester lhypothse H 0 : est intgr dordre au moins 1
Ha : le processus suit un modle AR (p). Ces tests peuvent tre regroups en 4 cas :
(1) (L) Yt = "t : on teste H0 : (1) = 0
(2) (L) Yt = + "t : on teste H0 : = 0 et (1) = 0
(3) (L) Yt = + "t : on teste H0 : 6= 0 et (1) = 0
(4) (L) Yt = + t + "t : on teste H0 : = 0; = 0 et (1) = 0
Ces 4 cas peuvent tre rcrits en introduisant les notations suivantes,
" p 1
#
X
0 = (1) 1
i
(L) = (1) + (1 L) (L) = (1)
iL (1 L) o
i = i1 i = i+1 + ::: + p
i= 0
115
Arthur CHARPENTIER
Mise en place pratique des tests On choisit tout dabord un p susement grand pour que (L) Xt suive peu
prs un bruit blanc. On choisit alors parmi les cas proposs suivant que le graphique de la srie prsente, ou pas, une
tendance linaire.
116
Arthur CHARPENTIER
50
14000
12000
40
10000
30
8000
20
6000
4000
10
2000
-2
0
0
-2000
100
200
300
400
500
600
-10
700
100
200
300
400
500
600
-4
700
100
200
300
400
DX
500
600
700
D2X
Le test (simple) de Dickey & Fuller revient estimer les 3 modles suivants,
8
< Xt Xt1 = Xt1
X Xt1 = + Xt1
: t
Xt Xt1 = + t + Xt1
( 0:000466)
(0: 0000244)
( 0:035561)
(0:035629)
avec n = 794. Les valeurs du test de Dickey & Fuller sont donnes par
ADF Test Statistic
-1.555831
1% Critical Value*
5% Critical Value
10% Critical Value
-3.9744
-3.4177
-3.1405
Coefficient
Std. Error
T-Statistic
Prob.
X(-1)
D(X(-1))
D(X(-2))
C
Trend
-3.80E-05
1.015160
-0.022332
-0.048502
0.000919
2.44E-05
0.035561
0.035629
0.092874
0.000466
-1.555831
28.54703
-0.626804
-0.522231
1.971959
0.1201
0.0000
0.5310
0.6017
0.0490
R-squared
0.994281
Adjusted R-squared 0.994252
S.E. of regression 1.028792
Sum squared resid 836.1470
Log likelihood
-1148.115
Durbin-Watson stat 1.998565
17.17545
13.56918
0.063041
0.092464
34333.72
0.000000
En rpettant ce test en changeant la forme du modle (ici sans trend + t, et en changeant lordre p), on conrme
ce rejet de H0 : la srie Xt possde une racine unitaire et nest pas stationnaire : la statistique de test ADF Test
117
Arthur CHARPENTIER
0.083143
1% Critical Value*
5% Critical Value
10% Critical Value
-2.5683
-1.9398
-1.6158
0.147201
1% Critical Value*
5% Critical Value
10% Critical Value
-2.5683
-1.9398
-1.6158
Variable
Coefficient
Std. Error
T-Statistic
Prob.
Variable
Coefficient
Std. Error
T-Statistic
Prob.
X(-1)
D(X(-1))
1.19E-06
0.999599
1.44E-05
0.003892
0.083143
256.8238
0.9338
0.0000
X(-1)
D(X(-1))
D(X(-2))
2.12E-06
1.023187
-0.023865
1.44E-05
0.035517
0.035721
0.147201
28.80845
-0.668114
0.8830
0.0000
0.5043
R- squared
0.994239
Adjusted R-squared 0.994231
S.E. of regression 1.030928
Sum squared resid 843.8728
Log likelihood
-1152.719
Durbin-Watson stat 1.952055
17.15451
13.57350
0.063428
0.075186
137020.3
0.000000
R-squared
0.994234
Adjusted R-squared 0.994220
S.E. of regression 1.031640
Sum squared resid 842.9113
Log likelihood
-1151.318
Durbin -Watson stat 1.998543
17.17545
13.56918
0.066067
0.083721
68285.65
0.000000
En faisant le test sur la srie direncie une fois (Xt ),on observe l aussi que lADF Test Statistic est toujours
suprieure aux valeurs critiques : H0 est encore accepte, et donc la srie Xt possde elle aussi une racine unitaire
et nest donc pas stationnaire
ADF Test Statistic -1.301307
1% Critical Value*
5% Critical Value
10% Critical Value
-3.4412
-2.8656
-2.5689
Coefficient
Std. Error
T-Statistic
Prob.
DX(-1)
D(DX(-1))
D(DX(-2))
C
-0.003514
0.024104
-0.016162
0.094442
0.002700
0.035551
0.035648
0.059015
-1.301307
0.678025
-0.453368
1.600316
0.1935
0.4980
0.6504
0.1099
R-squared
0.002941
Adjusted R- squared -0.000845
S.E. of regression 1.031104
Sum squared resid 839.9090
Log likelihood
-1148.953
Durbin-Watson stat 1.998939
0.034441
1.030669
0.066286
0.089848
0.776723
0.507138
Le test de Dickey & Fuller appliqu cette fois-ci 2 Xt donne les rsultats suivants,
ADF Test Statistic
-15.92501
1% Critical Value*
5% Critical Value
10% Critical Value
-3.4412
-2.8656
-2.5689
Coefficient
Std. Error
T-Statistic
Prob.
D2X(-1)
D(D2X(-1))
D(D2X(-2))
C
-0.975906
-0.000917
-0.018974
0.033307
0.061281
0.049987
0.035701
0.036722
-15.92501
-0.018335
-0.531468
0.907005
0.0000
0.9854
0.5952
0.3647
R-squared
0.489083
Adjusted R- squared 0.487141
S.E. of regression 1.032633
Sum squared resid 841.3347
Log likelihood
-1148.678
Durbin -Watson stat 2.002323
0.000169
1.441939
0.069255
0.092840
251.7610
0.000000
Cette fois-ci, le test de Dickey & Fuller permet de rejeter H0 : 2 Xt na pas de racine unitaire, et la srie 2 Xt est
donc stationnaire. Ce test valide les rsultats graphiques de lexemple (75) : la srie Xt est intgre dordre 2 : d = 2.
118
Arthur CHARPENTIER
Remarque 48 Dans le cas de sries nancires (par exemple), il convient de faire attention lors de la lecture des
rsultats des tests de Dickey & Fuller : les processus mmoire longue, bien que stationnaires, semblent avoir une
racine unit. Avant de direncier an dobtenir une srie stationnaire, il peut tre intressant de tester lhypothse
de mmoire longue du processus.
A retenir 11 Dans les tests de Dickey Fuller augment, trois (ou quatre) alternatives sont proposes : avec ou sans
tendance et constante. Il vaut mieux choisir lalternative permettant de mieux dcrire la srie : si la srie (Xt ) nest
pas centre, et que lon tente un test de Dickey Fuller sans constante, il est possible il est possible H0 soit rejete, non
pas parce quil ny a pas de racine unit, mais parce que le modle test est mal spci (cf exercice 16 de lexamen
2002/2003).
Complments sur les tests de racine unit
Xt = (L)
Les tests de Dickey-Fuller permet de tester cette hypothse : le test de rgression scrit alors
Xt = Xt1 + t dont lestimation est Xt = b
Xt1 + b
t :
Il est alors possible de montrer que sous lhypothse (H0 ) : = 1 , la statistique de test scrit
P
i
2
b
1
Xt1
1 Xh
s2
b
t=1 = o b
1 = P 2 t ; s2 =
Xt b
Xt1 et
b b
=P 2 ;
Xt1
T 1
Xt 1
b
b
b cart type (par moindre carrs) de lestimateur de , et sa distribution est donne par
avec b
R1
b
Wt dWt
1 L
b
t= 1 = ! hR 0
i1=2 6= N (0; 1) o (W t ) est un brownien standard sur [0; 1] :
1
2
b
b
W
dt
t
0
Cette distribution nest pas gaussienne, et des tabulations (obtenues par des mthodes de type Monte-Carlo) sont
ncessaire pour tabuler la distribution limite20 .
Tests de Phillips et Perron Ces tests non paramtriques ont t introduits en 1988. La distribution thorique
la base des tests de Dickey & Fuller repose sur lhypothse dhtroscdasticit du bruit. La gnralisation des tests
DF aux tests ADF se fait en considrant
X
Y t = Dt + Y t1 + " t ! Y t = Dt + Y t1 +
iy ti + " t;
o (Dt ) est une tendance dterministe. La gnralisation des tests DF propose par Phillips et Perron consiste ne
plus supposer que (" t) est un bruit blanc, et autoriser que ce processus soit autocorrle. La gnralisation de ces
tests au cas htroscdastique a t propose par Phillips et Perron, les valeurs critiques correspondant celles des
tests ADF . Ces tests reposent sur des rsultats de la thorie de la convergence faible fonctionelle (thorme central
limite fonctionel (FCLT) par exemple). Lutilisation du FCLT pour des tests de racines unit a t propos ds 1958
par White.
2 0 Le
lien entre les processus intgrs et le mouvement brownien est donn page 25:
119
Arthur CHARPENTIER
Si (Xt) est un processus stationnaire alors les statistiques calcules sur ce processus vriront le FCLT. Considrons
par exemple le cas AR (1), Xt = Xt 1 +"t pour t = 1; :::; T , et cherchons tester = 1 (hypothse H0 ). En supposons
H0 vrie, et considrons la somme partielle du processus dinnovation,
St = X t X 0 =
t
X
"i .
i=1
On prendra comme valeur initiale de (St ), S0 = 0, mais pour le choix de X0 trois possibilits sont gnralement
envisages : (i) X0 = c (constante), (ii) X0 admet une distribution spcie a priori, (iii) X0 = XT . Cette dernire
condition, dite hypothse de cicularit,
a t propos par Hotelling. Phillips avait suggr la seconde possibilit.
p
En notant XT (r) = S[T r] = T , il possible de montrer (cd partie prcdante) que XT (r) converge faiblement (not
=)) vers un mouvement brownien (cf. Billigsley (1968)).
n
o
+
Proprit 46 Si ("t ) vrie lhypothse () et si sup j" tj
< 1 pour > 0 et > 0 alors, quand T ! 1, sous
lhypothse H0 : = 1 dans le modle Xt = Xt1 + "t on a les rsultats suivants
(i)
Z 1
T
1 X 2
2
X
=)
W s2 ds
t 1
T2
0
t=1
T
1 X
2
2"
2
(ii)
Xt1 (Xt Xt 1 ) =)
W1 2
T t=1
2
(iii) T (b
1) =)
1 W12 2" = 2
R1
2
W s2 ds
0
(iv) b
!1
v
u T
X
1u
b
W12 2" = 2
2
t
(v) tb =
(Xt Xt 1 ) =)
qR
b
2 "
1
t=1
Ws2 ds
0
Preuve. Phillips (1987), Testing for a unit root in a time series regression.
Le point (iv) montre que les moindres carrs ordinaires conservent la proprit de convergence quand il y a une
racine unit.
Exemple 77 En reprenant la srie de lexemple (75), on retrouve que la srie (Xt ) admet une racine unit, que lon
teste un modle simple, sans constante ni tendance ( gauche), ou avec tendance et constante ( droite),
Null Hypothesis: X has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 11 (Newey-West using Bartlett kernel)
Adj. t -Stat
Prob.*
4.053815
-2.576634
-1.942431
-1.615638
1.0000
31.50308
354.1817
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Coefficient
0.008077
-0.347519
-0.347519
5.626917
6269.114
-625.6523
Prob.*
0.1725
16.21938
170.1988
Adj. t-Stat
-2.876236
-4.004836
-3.432566
-3.140059
Variable
Std. Error
t-Statistic
Prob.
Variable
Coefficient
Std. Error
t-Statistic
Prob.
0.000570
14.17192
0.0000
X(-1)
C
@TREND(1)
-0.019037
-2.270852
0.184788
0.002875
0.990735
0.023504
-6.622402
-2.292088
7.861856
0.0000
0.0230
0.0000
6.330875
4.847334
6.298013
6.314562
0.029997
R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
120
0.306229
0.299150
4.058033
3227.656
-559.5963
0.056810
6.330875
4.847334
5.654234
5.703882
43.25701
0.000000
Arthur CHARPENTIER
Adj. t-Stat
Prob.*
-0.638485
-2.576693
-1.942439
-1.615633
0.4397
Std. Error
DX(-1)
-0.005587
0.008655
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.000805
0.000805
0.970910
185.7053
-274.6033
Adj. t -Stat
Prob.*
-1.543621
-4.005076
-3.432682
-3.140127
0.8112
Variable
0.924445
0.920735
t-Statistic
-0.645434
Prob.
Variable
Coefficient
Std. Error
t-Statistic
Prob.
0.5194
DX( -1)
C
@TREND(1)
-0.023867
0.200901
-0.000147
0.015432
0.146759
0.001309
-1.546605
1.368915
-0.112696
0.1236
0.1726
0.9104
0.035032
0.971301
2.783872
2.800479
2.089261
R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.015146
0.005045
0.968848
183.0401
-273.1722
2.081225
0.035032
0.971301
2.789618
2.839440
1.499425
0.225821
En revanche, dans le cas de la srie direncie deux fois, tous les tests valident lhypothse dabsence de racine unit
Null Hypothesis: D2X has a unit root
Exogenous: None
Bandwidth: 2 (Newey-West using Bartlett kernel)
Phillips-Perron test statistic
Test critical values:
1% level
5% level
10% level
Adj. t-Stat
Prob.*
-14.71894
-2.576753
-1.942448
-1.615628
0.0000
Coefficient
D2X( -1 )
-1.049877
0.525457
0.525457
0.971924
185.1487
-273.4195
Std. Error
0.071265
Adj. t -Stat
Prob.*
-14.71021
-4.005318
-3.432799
-3.140195
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.936095
0.940320
t-Statistic
-14.73193
Prob.
Variable
Coefficient
Std. Error
t-Statistic
Prob.
0.0000
D2X(-1)
C
@TREND(1)
-1.054154
0.124773
-0.000904
0.071654
0.141908
0.001224
-14.71176
0.879253
-0.738662
0.0000
0.3804
0.4610
-0.001932
1.410894
2.785985
2.802651
1.990409
R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.527348
0.522476
0.974972
184.4107
-273.0261
1.989237
-0.001932
1.410894
2.802296
2.852294
108.2252
0.000000
Remarques complmentaires Un certains nombres dtudes sur des donnes simules ont montr que ces tests
rejettent dicilement lhypothse H0 dans le cas de sries dsaisonnalise. Il est alors parfois intressant dagrger des
donnes mensuelles en donnes annuelles, et de tester si la srie annuelle prsente une racine unit. Nelson et Plosser
(1992) ont montr que les racines unitaires caractrisent un grand nombre de sries macroconomiques.
Bien dautres tests sont disponibles sous EViews (KP SS - Kwiatkowski, Philipps, Schmidt et Shin (1992) ou encore
Ng-Perron (1993)). Sous RAT S, un grand nombre de procdures sont galement disponibles sur http://www.estima.com/
galement des implmentations des tests de racine unit saisonnire).
Le test de Schmidt-Philipps repose sur lide que dans le cas du test ADF de type 4 - avec tendance linaire
- linterprtation des paramtre nest pas la mme : considrons le modle Yt = + t + Yt 1 + "t et lhypothse
H0 : = 0 et = 1. Sous H0 et lhypothse alternative Ha , on a respectivement
t
1
X
X
H0 : Y t = Y 0 + t +
" tk et Ha : Y t = +
+ (1 ) +
k "t k :
1
k=0
k=0
Autrement dit, sous Ha , (Y t) est stationnaire autour dune tendance dterministe dont la pente est (1 ), alors
que sous H0 , (Y t) est non stationnaire, avec pour tendance . Aussi, Schmidt et Philipps ont propos de modliser
(Y t ) sous la forme Y t = + t + Xt o (Xt ) est non stationnaire sous H0 et (Xt ) est stationnaire sous Ha . On a alors
Y t = + t + Xt
H0 = 1
2
o jj 1 et (" t) BB 0;
et on teste
:
Xt = Xt 1 + "t
Ha < 1
7.1.3
Dans le cas dune modlisation SARIM A, avec une saisonnalit dordre s, il peut tre intressant de tester lordre s.
Un certain nombre de tests on t mis en oeuvre dans les annes 80 et 90, en particulier pour tester de la saisonnalit
lordre 4 et lordre 12.
121
Arthur CHARPENTIER
Tests de Hasza et Fuller (1982) et de Osborn, Chui, Smith & Birchenhall (OCSB, 1988)
ont considr le modle
Yt = 1 Yt 1 + sY ts + s+1 Y ts 1 + "t
Hasza et Fuller
s
X
i=1
sDs; t + (1 Ls ) Yt 1 + (1 L) Y ts + " t
Engle, Granger et Yoo (HE GY , 1990) Ce test utilise la dcomposition des polynmes
1 L4 et 1 L12 , avec respectivement 4 et 12 racines units : dans le cas dune saisonnalit lordre s = 12, on
considre une criture de la forme
(L) P 8 (L) Y t
P1 (L) =
(1 + L)
1 + L2 1 +
L4 + L8
>
>
<
4
8
P3 (L) = 1 L2 1 + L
p + L 2
4
>
P5 (L) = 1 L 1 + 3L + L 1 + L2 + L4
>
:
P7 (L) = 1 L4 1 L2 + L4 1 + L + L2
et
et
et
et
P 2 (L)
P 4 (L)
P 6 (L)
P 8 (L)
(i)
2
4
8
= (1
L)4 1 + Lp 1 + L2 +
L ;2
= 1 L 1 3L + L 1 + L + L4 ;
= 1 L 4 1 L 2 + L 4 1 L + L 2 ;
= 1 L12 :
Les variables Zt = Pi (L) Y t sont alors associes aux direntes racines du polynme. On peut alors considrer les t de
Student pour les variables 1 et 2 , ainsi que les F de Fisher associs aux couples.( 3 ; 4 ) ; ( 5 ; 6 ) ; ( 7 ; 8) ; ( 9 ; 10 )
et ( 11 ; 12 ).
Test de Franses ( 1990)
Dtection graphique dune racine unitaire saisonnire Considrons les sries suivantes, (Xt ), (Y t) et (Zt )
comportant respectivement une racine unitaire saisonnire dordre 2; 4 et 12,
Sur ces trois graphiques, en considrant la srie partielle des autocorrlogrammes rs (h) = j (sh)j ; on obtient une
srie constante, proche de 1, de mme que lautocorrlogramme dune srie en prsence de racine unitaire.
Toutefois, si ce genre de comportement laisse penser quil y a une racine unitaire saisonnire, lordre s nest pas
ncessairement celui indiqu par lautocorrlogramme : une srie saionnire dordre 4 peut avoir un autocorrlogramme
proche de celui de gauche.
7.1.4
Considrons la srie suivante, correspondant une marche alatoire (Xt). On notera alors Y t = (1 L) Xt et Zt =
(1 L) Y t , autrement dit, on direncie respectivement une fois et deux fois la marche alatoire. On reprsentera
122
Arthur CHARPENTIER
Autocorrelations
20
Lag
Covariance
0
1
2
118.497
117.047
115.741
1.00000
0.98777
0.97674
|
|
|
3
4
114.466
113.259
0.96599
0.95579
|
|
10
0
-10
-20
-30
-40
250
500
750
1000
Correlation
0.94617
0.93658
0.92658
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
|
|
|
Std Error
- 0.47865
0.098387
0.115749
2
3
- 0.02417
- 0.00688
|
|
. | .
. | .
|
|
4
5
0.01959
0.01927
|
|
. | .
. | .
|
|
- 0.07027
|******************* |
|******************* |
5
6
7
112.118
110.982
109.797
108.734
107.835
0.91761
0.91002
|
|
.
.
|******************
|******************
|
|
0.165889
0.175710
106.856
105.916
104.777
0.90176
0.89383
0.88421
|
|
|
.
.
.
.
.
.
|**** **************
|******************
|******************
|
|
|
0.184860
0.193424
0.201484
13
14
103.789
102.853
0.87588
0.86798
|
|
|******************
|*****************
|
|
0.209071
0.216257
15
16
17
101.833
100.603
99.335863
0.85937
0.84899
0.83830
|
|
|
.
.
.
|*****************
|*****************
|*****************
|
|
|
0.223089
0.229589
0.235760
|******************* |
|******************* |
|******************* |
0.130527
0.143541
0.155238
.*| .
0.02549
0.05313
|
|
. |*.
. |*.
|
|
- 0.04099
0.03523
|
|
.*| .
. |*.
- 0.09894
0.09051
|
|
**| .
. |**
|
|
13
14
0.01058
- 0.00824
|
|
. | .
. | .
|
|
15
16
- 0.07292
0.04292
|
|
.*| .
. |*.
|
|
17
0.01490
|
|
0.241625
0.247212
18
19
- 0.02594
0.00236
|****************
|****************
|****************
|
|
|
0.252542
0.257644
0.262541
20
21
0.00943
0.05249
.
.
|****************
|***************
|
|
0.267257
0.271793
.
.
.
|***************
|***************
|***************
|
|
|
0.276152
0.280339
0.284353
.
.
.
|**** ***********
|**************
|**************
|
|
|
0.288206
0.291886
0.295412
.
.
|**************
|**************
|
|
0.298795
0.302040
|
|
0.80830
0.79962
0.79188
|
|
|
23
24
92.828234
91.752164
0.78338
0.77430
|
|
25
26
27
90.623229
89.378820
88.174909
0.76477
0.75427
0.74411
|
|
|
28
29
30
86.735134
85.437175
84.164093
0.73196
0.72101
0.71026
|
|
|
31
32
82.899095
81.660381
0.69959
0.68913
|
|
33
34
35
80.406003
79.244523
78.109329
0.67855
0.66875
0.65917
36
76.933940
0.64925
.
.
.
|**************
|*************
|*************
|**** *********
|
|
|
0.305156
0.308147
0.311025
0.313795
7
8
|**** *************
|****************
0.82799
0.81769
**********| .
11
12
.
.
98.114218
96.893565
95.781537
94.752555
93.835797
9
10
.
.
18
19
20
21
22
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
8
9
|
|
|
Correlation
0
0.044632
0.076676
10
11
12
Lag
|********************|
. |********************|
. |**** ****************|
|
|
. | .
|
|
.*| .
. | .
|
|
|
|
. | .
. |*.
|
|
22
23
- 0.04692
- 0.01729
|
|
.*| .
. | .
|
|
24
25
0.02241
- 0.02886
|
|
. | .
.*| .
|
|
26
0.07200
. |*.
27
28
- 0.11490
0.07382
|
|
**| .
. |*.
|
|
29
30
0.00234
- 0.01380
|
|
. | .
. | .
|
|
31
32
0.00757
- 0.02967
|
|
. | .
.*| .
|
|
33
34
0.04559
- 0.00567
|
|
. |*.
. | .
|
|
35
- 0.03475
.*| .
36
0.019 30
. | .
Inverse Autocorrelations
Autocorrelations
Lag
|
|
|
. | .
. | .
.*| .
|
|
|
0.044677
0.044693
0.044694
4
5
- 0.122848
0.030231
-.06295
0.01549
|
|
.*| .
. | .
|
|
0.044844
0.045020
6
7
8
- 0.046754
- 0.083088
- 0.042463
-. 0 2 396
-.04257
-.02176
|
|
|
. | .
.*| .
. | .
|
|
|
0.045031
0.045056
0.045136
9
10
0.094738
0.010367
0.04854
0.00531
|
|
. |*.
. | .
|
|
0.045157
0.045261
11
12
13
0.172028
- 0.047280
0.038754
0.08815
-.02423
0.01986
|
|
|
. |**
. | .
. | .
|
|
|
0.045263
0.045604
0.045630
500
750
0.067319
0.114811
0.03449
0.05883
|
|
. |*.
. |*.
|
|
0.045647
0.045699
0.04461
-.00591
-.04889
|
|
|
. |*.
. | .
.*| .
|
|
|
0.045850
0.045936
0.045938
19
20
0.029021
0.014966
0.01487
0.00767
|
|
. | .
. | .
|
|
0.046042
0.046051
21
22
23
- 0.091590
-0.0021886
0.055409
-.04693
-.00112
0.02839
|
|
|
.*| .
. | .
. |*.
|
|
|
0.046054
0.046149
0.046149
24
25
-0.0087323
0.098691
-4
250
|********************|
0.087056
- 0.011539
- 0.095413
16
17
18
-3
Std Error
-.01899
0.00432
-.05810
14
15
-1
-2
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1.00000
- 0.037060
0.0084385
- 0.113388
Correlation
1.951601
1
2
3
Covariance
1000
-.00447
0.05057
|
|
. | .
. |*.
|
|
0.046184
0.046185
26
27
28
- 0.068891
0.130526
- 0.149810
-.03530
0.06688
-.07676
|
|
|
.*| .
. |*.
**| .
|
|
|
0.046295
0.046349
0.046541
29
30
31
- 0.045138
0.012506
0.064693
-.02313
0.00641
0.03315
|
|
|
. | .
. | .
. |*.
|
|
|
0.046793
0.046816
0.046818
32
33
- 0.040056
- 0.076052
-.02052
-.03897
|
|
. | .
.*| .
|
|
0.046865
0.046883
34
35
36
- 0.099367
- 0.023904
0.030128
-.05092
-. 0 1 225
0.01544
|
|
|
.*| .
. | .
. | .
|
|
|
0.046947
0.047057
0.047064
Lag
Correlation
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1
2
0.02583
0.02382
|
|
. |*.
.| .
|
|
3
4
0.05540
0.10253
|
|
. |*.
. |**
|
|
5
6
-0.01569
0.03377
|
|
. | .
. |*.
7
8
0.02562
0.03111
|
|
. |*.
. |*.
|
|
|
|
9
10
-0.06939
-0.01005
|
|
.*| .
. | .
|
|
11
12
13
-0.09205
0.00675
-0.05308
|
|
|
**| .
. | .
.*| .
|
|
|
14
15
-0.03180
-0.08725
|
|
.*| .
**| .
|
|
16
17
-0.04029
-0.03261
|
|
.*| .
.*| .
|
|
18
19
0.02742
-0.06047
|
|
. |*.
.*| .
|
|
20
21
-0.01299
0.03196
|
|
. | .
. |*.
|
|
22
23
0.01293
-0.05692
|
|
. | .
.*| .
|
|
24
25
26
0.01556
-0.01881
0.04697
|
|
|
. | .
. | .
. |*.
|
|
|
27
28
-0.05767
0.08423
|
|
.*| .
. |**
|
|
29
30
0.03435
0.01313
|
|
. |*.
. | .
|
|
31
32
-0.02299
0.03541
|
|
. | .
. |*.
|
|
33
34
0.03828
0.05492
|
|
. |*.
. |*.
|
|
35
36
0.01036
0.01159
|
|
. | .
. | .
|
|
Inverse Autocorrelations
Autocorrelations
Lag
0
0.044721
0.055207
0.92197
2
3
0.84723
0.77535
|
|
1.00000
-.51182
0.04572
|
|
|
3
4
-0.113464
-0.176131
-.02859
-.04438
|
|
.*| .
.*| .
|
|
0.055283
0.055313
4
5
0.70122
0.61560
|
|
. |**************
. |************
|
|
5
6
7
0.255331
-0.054876
-0.094385
0.06434
-.01383
-.02378
|
|
|
. |*.
. | .
. | .
|
|
|
0.055384
0.055533
0.055540
6
7
0.53893
0.45780
|
|
. |***********
. |*********
|
|
8
9
10
-0.082030
0.217745
-0.237175
-.02067
0.05487
-.05976
|
|
|
. | .
. |*.
.*| .
|
|
|
0.055560
0.055576
0.055684
11
12
0.366656
-0.308261
0.09239
-.07767
|
|
. |**
**| .
|
|
0.055812
0.056117
|********************|
**********| .
|
. |*.
|
13
14
15
0.067308
0.00020930
0.054488
0.01696
0.00005
0.01373
|
|
|
. | .
. | .
. | .
|
|
|
0.056332
0.056342
0.056342
16
17
0.076474
- 0.0001716
0.01927
-.00004
|
|
. | .
. | .
|
|
0.056349
0.056362
-2
18
19
20
-0.238021
0.150418
0.089441
-.05998
0.03790
0.02254
|
|
|
.*| .
. |*.
. | .
|
|
|
0.056362
0.056489
0.056540
21
22
23
-0.177946
0.029772
0.115280
-.04484
0.00750
0.02905
|
|
|
.*| .
. | .
. |*.
|
|
|
0.056558
0.056629
0.056631
24
25
-0.172246
0.271504
-.04340
0.06841
|
|
.*| .
. |*.
|
|
0.056661
0.056727
26
27
28
-0.354107
0.470429
-0.384039
-.08923
0.11854
-.09677
|
|
|
**| .
. |**
**| .
|
|
|
0.056892
0.057171
0.057661
29
30
0.039738
0.0033611
0.01001
0.00085
|
|
. | .
. | .
|
|
0.057985
0.057988
31
32
33
0.162465
-0.070734
0.00095295
0.04094
-.01782
0.00024
|
|
|
. |*.
. | .
. | .
|
|
|
0.057988
0.058046
0.058057
34
35
-0.097395
0.019390
-.02454
0.00489
|
|
. | .
. | .
|
|
0.058057
0.058078
36
-0.076424
-.01926
. | .
0.058078
-6
250
500
750
1000
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
Correlation
3.968614
-2.031220
0.181453
-4
Correlation
Covariance
0
1
2
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
Std Error
Lag
8
9
0.37445
0.28937
|
|
. |******************
. |*****************
. |****************
|
|
. |*******
. |******
|
|
10
11
0.22085
0 . 15320
|
|
. |****
. |***
|
|
12
13
0.10186
0.05061
|
|
. |**
. |*.
|
|
14
15
0.01171
-0.02166
. | .
. | .
|
|
16
17
-0.03956
-0.04823
|
|
.*| .
.*| .
|
|
18
19
-0.05007
-0.05759
|
|
.*| .
.*| .
|
|
20
21
-0.05239
-0.04302
.*| .
.*| .
|
|
22
23
-0.03698
-0.03360
|
|
.*| .
.*| .
|
|
24
25
-0.02050
-0.00991
|
|
. | .
. | .
|
|
|
|
26
27
0.00534
0.01280
|
|
. | .
. | .
|
|
28
29
0.03067
0.03363
|
|
. |*.
. |*.
|
|
30
31
0.03227
0.03109
. |*.
. |*.
|
|
32
0.03606
. |*.
33
34
0.03575
0.03311
|
|
. |*.
. |*.
|
|
35
36
0.02420
0.01333
|
|
. | .
. | .
|
|
|
|
|
Comme nous lavons dj voqu, lautocorrlogramme de la srie (Xt ) permet - a priori - de conclure la prsence
dune racine unit. Le comportement de lautocorrlogramme inverse de la srie (Zt) prsente, de faon moins nette
certes, le mme genre de comportement.
On peut noter galement sur les autocorrlogrammes de (Yt ), correspondant un bruit blanc, que les autocorrlations et les autocorrlations inverses sont identiques (ce qui est une caractrisation des bruits blancs).
[A COMPLETER]
7.2
Pour lestimation des paramtres p et q, on utilise le fait que si (Xt ) suit un ARIM A (p; d; q), alors (1 L) Xt
suit asymptotiquement un processus ARM A (p; q). En pratique, lide est daplliquer la rgle suivante : si (Xt ) s
ARIM A (p; d; q) alors (1 L)d Xt s ARM A (p; q).
On appelle processus ARM A (p; q), un processus stationnaire (Xt ) vriant une relation du type
Xt +
p
X
i=1
iXti = " t +
q
X
j=1
o les i sont des rels et ("t) est un bruit blanc de variance 2 . (22) est quivalent lcriture
(L) = I + 1 L + ::: + q Lq
(L) Xt = (L) " t o
(L) = I + 1 L + ::: + p Lp :
(31)
(32)
On supposera de plus que les polymes et nont pas de racines en module strictement suprieures 1 (criture sous
forme canonique), et nont pas de racine commune. On supposera de plus que les degrs de et sont respectivement
q et p, au sens o q 6= 0 et p 6= 0.
123
7.2.1
Arthur CHARPENTIER
On peut noter que lcriture ARM A (32) nest pas unique. En eet, il sut de multiplier gauche et droite de (32)
par un mme polynme en L, (L). Alors, en posant (L) = (L) (L) et (L) = (L) (L), on peut noter
(i
+
1)
(i)
(i
j
+
4)
(i
j
+
3)
6
7
- i;j = 6
7
.
.
.
..
..
..
6
7
6
7
6
7
4 (i + j 2) (i + j 3) (i + j 4) . . .
(i)
(i 1) 5
(i + j 1) (i + j 2) (i + j 3)
(i + 1)
(i)
Dnition 44 Un processus (Xt ) est un ARM A (p; q) minimal si (L) Xt = (L) "t o (" t) est un bruit blanc et
o et sont de degr respectif p et q (avec p 6= 0 et q 6= 0) dont les racines sont de module suprieur 1, et o
et nont pas de racines communes.
Proprit 48 Le processus (Xt) est un ARM A (p; q) minimal si et seulement si
(i) (i; j) = 0 pour i q + 1 et j p + 1;
(ii) (i; j) 6= 0 pour i q;
(iii) (i; j) 6= 0 pour j p:
Autrement dit, on peut construire le tableau des (i; j), et il aura la forme suivante pour un processus ARM A (p; q)
minimal,
inj
1
2
..
.
q
q+1
q+2
..
.
1
2
(1; 1)
(1; 2)
(2; 1)
(2; 2)
..
..
.
.
(q; 1)
(q; 2)
(q + 1; 1) (q + 1; 2)
(q + 2; 1) (q + 2; 2)
..
..
.
.
p
(1; p)
(2; p)
..
.
(q; p)
(q + 1; p)
(q + 2; p)
..
.
p+1
(1; p + 1)
(2; p + 1)
..
.
(q; p + 1)
0
0
..
.
p+2
(1; p + 2)
(2; p + 2)
(q; p + 2)
0
0
..
.
soit
Dq
0
inj
1
2
..
.
1
(1; 1)
(2; 1)
..
.
2
(1; 2)
(2; 2)
..
.
q
q+1
q+2
..
.
(q; 1)
0
0
..
.
(q; 2)
0
0
..
.
Remarque 50 Dans le cas dun processus AR (p), le tableau des (i; j) a la forme suivante
Dp
inj
1
=
2
..
.
1
2
(1; 1) (1; 2)
(2; 1) (2; 2)
..
..
.
.
124
p
p+1
(1; p)
0
(2; p)
0
..
..
.
.
p+2
0
0
..
.
Dp; q
Dq
Dp
0
Arthur CHARPENTIER
j1
Nous avions vu dans la partie (2:4:3) que les moments empiriques ( (h) ; (h) ; i (h) :::) convergeaient vers les vraies
moments.
Proprit 49 Sous lhypothse o (Xt ) s M A (q), et que ("t ) est stationnaire lordre 4, alors
p
(h) (h)
b
L
T p T Pq
! N (0; 1) pour h > q:
1 + 2 k=1 2 (k)
Cette proposition permet en particulier davoir lintervalle de conance 95% des autocorrlations,
"
r
#
Pq
1 + 2 k=1 2 (k)
T (h) 1:96
b
:
T
(33)
Proprit 50 Sous lhypothse o (Xt ) s AR (p), et que ("t ) est stationnaire lordre 4, alors
p
L
T [b
aT (h) a (h)] ! N (0; 1) pour h > q:
Cette proposition permet en particulier davoir lintervalle de conance 95% des autocorrlations partielles,
1
baT (h) 1:96 p
;
T
Pour estimer les ordres p ou q, on utilise les proprits vues prcdemment sur les formes des autocorrlogrammes
( (h)) ou des autocorrlogrammes partiels (a (h)). En particulier
(i) pour les processus AR (p) lautocorrlogramme partiel sannule partir de p ( gauche)
(ii) pour les processus M A (q) lautocorrlogramme sannule partir de q ( droite)
Remarque 51 Sil reste de la saisonnalit, celle-ci apparatra galement dans les autocorrlogrammes
6
4
2
0
-2
-4
-6
-8
100
200
300
400
500
600
700
800
A3
125
7.2.4
Arthur CHARPENTIER
Si (Xt) suit un processus M A (q), on peut noter que la variance des autocorrlations empiriques est donne par la
relation
q
X
V (b
(h)) t 1 + 2
2 (i) ; pour h > q;
i= 1
En pratique, on identie q, ordre dun processus M A (q) comme la premire valeur partir de laquelle les (h) sont
dans lintervalle dont les extrmits sont dlimites par
i1=2
1:96 h
p
1 + 2 b2 (1) + b
2 (2) + ::: + b
2 (h 1)
;
T
puisque sous lhypothse o le processus est eectivment un M A (q)
p
7.2.5
L
Tb
(h) ! N 0; 1 + 2 2 (1) + ::: + 2 (q 1) pour h > q:
La mthode du coin (Beguin, Gourieroux, Monfort) La mthode suivante, dite mthode du coin permet
destimer conjointement p et q lorsque les deux sont non-nuls. Elle est base sur la proprit (48) : Les valeurs de - ij
o
2
3
(i)
(i 1)
(i 2)
(i j + 2) (i j + 1)
6 (i + 1)
(i)
(i 1)
(i j + 3) (i j + 2) 7
6
7
6
7
.
.
6 (i + 2)
.
(i + 1)
(i)
(i j + 4) (i j + 3) 7
6
7
- i;j = 6
7
..
..
..
6
7
.
.
.
6
7
6
7
.
..
4 (i + j 2) (i + j 3) (i + j 4)
(i)
(i 1) 5
(i + j 1) (i + j 2) (i + j 3)
(i + 1)
(i)
sont inconnues mais peuvent tre estime par les b (h). On pose alors (i; j ) = det - ij , qui sera, de la mme
b (i; j) = det b ij . Les
b (i; j ) sont alors des estimateurs convergents des (i; j) (par continuit
faon, estim par
du dterminant). Les coecients p et q sont alors les valeurs pour lesquels sobservent une rupture. La variance
b (i; j )est une fonction direntiable du vecteur des autocorrlations b
asymptotique de
(h), avec une loi normale
asymptotique.
r
b (i; j) = Vb
b (i; j ) , qui doit tre compare
Un test de nullit est bas sur lutilisation de la statistique de Student
1:96 pour un seuil de 5%.
Exemple 78 Considrons le processus simul (sur 250 valeurs) (1 0:5L) Xt = 1 + 0:1L 0:7L2 " t o ("t ) est un
bruit blanc gaussien de variance 1
4
2
0
-2
-4
-6
50
100
150
200
250
ARMA
126
Arthur CHARPENTIER
1
0:352
0:296
0:316
0:179
0:036
2
0:420
0:199
0:047
0:021
0:010
3
0:006
0:067
0:006
0:000
0:002
4
0:095
0:022
0:001
0:001
0:001
5
inj
0:003
1
0:006
2
t
0:003
3
0:001
4
0:000
5
(1) (0) 0:352
=
1;2 =
(2) (1) 0:296
1
0:352
0:296
0:316
0:179
0:036
2
0:420
0:199
0:047
0:021
0:010
3
4
0:006
0:095
0:067 0:022
0.000 0.000
0.000 0.000
0.000 0.000
5
0:003
0:006
0.000
0.000
0.000
1
= 0:3522 + 0:296 = 0:420:
0:352
Lapproximation indique ci-dessous semble valider lhypothse de modlisation ARM A (1; 2). Cette intuition est conrme en tudiant le tableau des Student.
Utilisation de la fonction dautocorrlation tendue (Tsay, & Ciao) Cette mthode est appele ESCAF
(Extended Sample Autocorrelation Function) sous SAS, et est dcrite dans la document SAS E T S (pages 236237 ). Pour cela, on eectue des regressions linaires, de faon itrative pour calculer les paramtres AR dun ARM A
(stationnaire ou pas ). Ensuite, partir de cette estimation, la srie observe est modlise sous forme M A.
Soit (Xt ) un processus ARM A (p; q) dont on observe n ralisations, suivant le modle
(L) Xt = (1 L)d (L) Xt = (L) "t o ("t ) suit un bruit blanc de variance 2 :
Sur la partie autorgressive du processus, on utilise une rgression linaire pour obtenir des estimateurs (par moindres
carrs) des paramtres autorgressifs de la composante AR. On dnit alors la premire regression
Xt =
p
X
|i=0
1
p;1 p;0
p;1
p;
i Xt i + i t1 + u t :
{z
Ce modle est estim par les mco. On dnit alors la k-me rgression itrative dun AR (m) quelconque
Xt =
m
X
m;k
Xti +
i
i=0
k
X
m;k
m;k
j;k
;
j
tj + u t
j=0
o les j;k
sont les erreurs du processus AR de la k-ime rgression, et les u m;k
les rsidus de la rgression. Comme
t
t
on ignore lordre p de la partie autorgressive, on choisit m variant de 1 p0 , et on eectue q 0 rgressions itratives :
on choisira a priori p 0 et q0 susamment grands. Les paramtres peuvent alors tre estims rcursivement par
m+1;j1
m;j
m+1;j 1
m;j 1 b
m+1
b
b
b
i = i
i1
:
m;j 1
b
m
Ces paramtres sont alors utiliss pour dnir la E SACF , fonction dautocorrlation tendue, telle que la dnie
Tsay et Tia (1984),
Dnition 45 On appelle fonction dautocorrlation tendue la fonction rj (m), fonction dautocorrlation du processus
m
X
m;j
m
b
!j = Xt
i Xti pour j = 1; 2; :::
i=1
rj (p + d) t 0 pour j > q
rj (p + q) 6= 0 pour j = q:
127
(34)
Arthur CHARPENTIER
0
r1 (0)
r1 (1)
r1 (2)
r1 (3)
..
.
1
r2 (0)
r2 (1)
r2 (2)
r2 (3)
..
.
2
r3 (0)
r3 (1)
r3 (2)
r3 (3)
..
.
3
r4 (0)
r4 (1)
r4 (2)
r4 (3)
..
.
p
La nullit thorique de (34) est interprte statistiquement par une valeur infrieur 1:96= n.
Mthode SCAN Cette mthode vise utiliser la plus petite corrlation canonique (smallest canonical correlation)
pour identier les ordres p et q: Elle a t implmente sous SAS, et est dcrite dans la document SAS E T S (pages
239-241 ). La syntaxe pour utiliser cette procdure ou la pro cdure ESACF est la suivante
proc arima data = base;
identify var = x esacf scan;
run;
Considrons une srie Xt que nous allons centrer, Zt = Xt ; dont on observe n ralisations, suivant un processus
ARIM A (p; d; q). Cette mthode analyse les valeurs propres de la matrice de corrlation du processus.
[A COMPLETER]
Exemple 79 Dans le cas dun processus ARM A (2; 1), les tables E SACF et SC AN thoriques seront de la forme
ARnMA
0
1
2
3
4
Table ESAC F
0 1 2 3
0 0 0
0 0
0
0
0
0
0
0
0
Table SC AN
0 1 2 3
0 0 0
0 0 0
0 0 0
ARnMA
0
1
2
3
4
0
0
0
0
0
0
0
0
0
0
0
0
o lordre de lAR se lit gauche, et lordre du M A se lit en haut. Dans lexemple ci-dessous, nous avons simul 1500
ralisations dun tel processus.
ARIMA Procedure
ARIMA Procedure
MA 0
AR 0
AR 1
AR 2
AR 3
AR 4
AR 5
0.5312
0.5206
-0.4404
-0.4803
-0.4981
-0.4721
MA 1
MA 2
MA 3
MA 4
MA 5
Lags
MA 0
MA 1
MA 2
MA 3
MA 4
MA 5
0.0134
0.0203
-0.0326
0.1110
-0.5046
-0.0174
-0.3184
-0.2599
-0.0757
-0.1018
-0.3928
-0.3009
-0.4086
-0.1589
0.0609
0.0609
0.0213
0.1085
-0.3562
-0.1552
0.0045
0.0114
0.0523
0.0143
-0.2131
-0.1731
-0.0305
-0.0188
-0.0252
-0.0257
AR 0
AR 1
AR 2
AR 3
AR 4
AR 5
0.2828
0.1413
0.0441
0.0225
0.0323
0.0154
0.0002
0.1353
0.0005
0.0017
0.0021
0.0001
0.1020
0.1208
0.0023
0.0024
0.0025
0.0005
0.1685
0.0242
0.0013
0.0017
0.0001
0.0005
0.1282
0.0148
0.0001
0.0004
0.0005
0.0002
0.0459
0.0145
0.0004
0.0003
0.0003
0.0006
MA 4
MA 5
Lags
MA 0
MA 1
MA 2
MA 3
MA 4
MA 5
AR 0
AR 1
AR 2
AR 3
AR 4
AR 5
0.0001
0.0001
0.0001
0.0001
0.0001
0.0001
0.6782
0.0001
0.4834
0.1990
0.1510
0.9782
0.0001
0.0001
0.1152
0.1480
0.1198
0.4712
0.0001
0.0001
0.2162
0.1700
0.8188
0.4376
0.0001
0.0001
0.9077
0.4922
0.4879
0.6296
0.0001
0.0001
0.5113
0.6210
0.5618
0.4168
MA 0
0.0001
0.0001
0.0001
0.0001
0.0001
0.0001
MA 1
0.6786
0.5352
0.2836
0.0010
0.0001
0.5715
MA 2
0.0001
0.0001
0.0094
0.0012
0.0001
0.0001
MA 3
0.0001
0.0001
0.0496
0.0544
0.4967
0.0021
0.0001
0.0001
0.8859
0.7021
0.1254
0.6058
0.0001
0.0001
0.3192
0.5632
0.4283
0.4184
q
3
3
4
SCAN p+d q
2 1
0
0:53
0:52
0:44
0:48
0:50
Table
1
0:01
0:02
-0.03
0:11
0:51
ESAC F
2
3
0:32 0:41
0:25 0:16
-0.08 -0.06
-0.10 -0.06
0:40 0.02
4
0:36
0:16
0.00
0.01
0.05
5
0:21
0:17
-0.03
-0.02
-0.02
128
ARnMA
0
1
2
3
4
0
0:28
0:14
0:04
0:02
0:03
Table
1
0:00
0:14
0.00
0.00
0.00
SC AN
2
3
0:10 0:17
0:12 0:02
0.00 0.00
0.00 0.00
0.00 0.00
4
0:13
0:01
0.00
0.00
0.00
5
0:05
0:01
0.00
0.00
0.00
Arthur CHARPENTIER
Comme on peut le noter, la mthode SCAN donne de trs bon rsultats, et permet didentier les ordres 2 et 1.
Remarque 52 SAS propose une mthode supplmentaire pour estimer lordre des processus ARM A : la mthode
M IN IC:
7.2.6
0
En notant ! = 1 ; :::; p ; 1 ; :::; q , on a le rsultat suivant
! T !)
L
0
- 0
pT (b
!N
;
:
0
0 a
T (b
T )
Cette proprit permet de mettre en place des tests sur les paramtres.
7.3
Lhypothse (Xt) s ARIM A (p; d; q) peut scrire (1 L) (L) Xt = (L) "t, ou encore
1
"t = (L)
(1 L) (L) Xt :
b (L) et
b (L), qui
Une fois estims les paramres d; p; q et lensemble des i et j , on obtient des polynmes estims
permettent dobtenir les rsidus estims,
b (L) 1 (1 L)d
b (L) Xt :
b"t =
Pour que les modles obtenus prcdamment soient valides, il convient de vrier que les rsidus estims suivent bien
un bruit blanc H0 : ("t ) s BB.
7.3.1
n k
n
b (h)
1 X
1X
o b
(h) =
Xt X Xt h X et X =
X t:
(0)
b
n h t=1
n t=1
h
p
p i
Lintervalle de conance de b
(h) est, dans le cas dun bruit blanc gaussien t=2 = T ; t=2 = T o t=2 est le quantile
dordre =2 de la loi de Student (1:96 pour = 5%). Pour avoir un bruit blanc, il est ncessaire quaucune valeur de
lautocorrlogramme ne soit signicativement non-nulle.
Exemple 80 Pour la srie (1) gauche, aucune valeur nest signicativement non-nulle alors que pour la srie (2),
droite, certaines le sont, en particulier pour h = 8 ou h = 16.
129
7.3.2
Arthur CHARPENTIER
Le test de Box-Pierce permet didentier les processus de bruit blanc (i.e. les processus alatoires de moyenne nulle,
de variance constante et non autocorrls). Cette statistique permet de tester cov (" t; "t h ) = 0 pour tout h, soit
(h) = 0 pour tout h. Ce test scrit
h
X
k=1
k ;
b
h
X
k=1
bk
;
T k
qui suit asymptotiquement, sous H0 une loi du 2 h degrs de libert. Ces tests sont appels par les anglo-saxons
portmanteau tests, soit littralement tests fourre-tout .
Exemple 81 Cette statistique est gnralement fournie avec lautocorrlogramme (Q-stat). Les deux sorties cidessous correspondent aux valeurs pour 2 sries de rsidus
La table du 2 est donne ci-dessous. A titre comparatif, nous obtenons le tableau suivant
h
Srie (1)
Srie (2)
10% (h)
5% (h)
1
0:000
2:088
2:706
3:841
2
0:102
2:206
4:605
5:991
3
0:819
4:059
6:251
7:815
4
4:095
4:673
7:779
9:488
5
4:476
7:2646
9:236
11:070
6
6:852
8:643
10:645
12:592
7
9:087
10:341
12:017
14:067
8
10:676
19:234
13:362
15:507
9
11:310
19:281
14:684
16:919
10
11:388
19:281
15:987
18:307
Si la srie (1) est statistiquement un bruit blanc, il ne semble pas en tre de mme pour la seconde srie, pour
laquelle Qh est parfois trop eleve (en particulier partir de h = 8 - ce qui tait conrm par lanalyse graphique des
autocorrlogrammes, avec cette valeur (8) signicativement non nulle). Le seuil apparait dailleurs en pointill sous
E V iews, et en . sous SAS.
7.3.3
Dans le cadre de la prvision, ou lors des tests de Student sur les paramtres, il convient de vrier la normalit
des rsidus. Un test possible est celui de Bera & Jarque (1984), bas sur le skewness (coecient dasymtrie de la
distribution) et la kurtosis (aplatissement - paisseur des queues).
130
Arthur CHARPENTIER
k
En notant k le moment dordre k de la distribution, k = E [X E (X)] , on appelle skewness le coecient
3=2
s = 3 =2 et kurtosis k = 4 =22 . Sous des hypothses de normalit, on a normalit des estimateurs du skewness et
de la kurtosis,
p
L
L
s ! N 0; 6=T et k ! N 3; 24=T quand T ! 1:
Le test de Bera & Jarque repose sur le fait que, si la distribution suit une loi normale, alors la quantit
BJ =
T 2
T
2
s +
[k 3] ;
6
24
suit asymptotiquement une loi du 2 2 degrs de libert. Aussi, si BJ 21 (2) on rejette lhypothse H0 de
normalit des rsidus au seuil .
Exemple 82 Dans lexemple ci-dessous, les rsidus suivent eectivement une loi normale N (0; 1)
4
100
Series: RESIDUS1
Sample 1 1000
Observations 1000
2
80
60
40
-2
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
0.006772
-0.009971
3.372898
-3.376546
1.050788
-0.006424
2.876155
Jarque-Bera
Probability
0.645941
0.723995
20
-4
200
400
600
800
1000
-3
-2
-1
RESIDUS1
La kurtosis vaut 2:876 (3 pour une loi normale) et le skewness 0:006 (0 pour un loi normale). La statistique de Bera
& Jarque vaut alors 0:6459, qui est infrieur le centile du 2 2 degrs de libert, au seuil = 5%, soit 5:991(table
ci-dessous).
Exemple 83 Dans lexemple ci-dessous, les rsidus ne suivent pas une loi normale N (0; 1)
6
140
Series: RESIDUS2
Sample 1 1000
Observations 1000
120
100
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
80
60
40
-2
20
0.052278
0.006300
5.332330
-3.832115
1.128819
0.395539
4.405434
Jarque-Bera 108.3770
Probability 0.000000
-4
200
400
600
800
1000
1.25
2.50
3.75
5.00
RESIDUS2
La distribution est beaucoup trop aplatie pour suivre une loi normale (kurtosis valant 4:4), avec un asymtrie galement
trop forte. La statistique de Bera & Jarque vaut alors 108 >> 5:991.
Remarque 53 La table ci-dessous est la table de la loi du chi-deux, o P est le seuil et le nombre de degrs de
131
Arthur CHARPENTIER
libert
7.3.4
Perron a propos dintroduire, ds 1989, dans la rgression de Dickey & Fuller une variable indicatrice spciant
lexistence dune rupture. La date de rupture peut dailleurs tre connue ou inconnue. Dans le cas o elle est inconnue,
une procdure squentielle permet de la localiser. Ce lien entre les tests de racine unit et les changements de structure
ont donn lieu de nombreuses publications depuis une dizaine dannes. Direntes formes de changement de structure
ont dailleurs t tudies : changement de niveau, changement du coecient de tendance linaire, changement sur les
coecients des variables de la modlisation...etc.
Les tests de racine unit Plusieurs tests ont t implments an de tester lhypothse nulle que la srie stationnaire (Y t) possde une racine unit et une constante, ventuellement nulle, avec une rupture au temps o 1 < < T ,
contre lhypothse alternative que la srie soit stationnaire autour dune tendance linaire avec rupture en sur cette
tendance. Une distinction est alors gnralement apporte entre deux cas :
AO - additive outliers - eet instantann
IO - innovational outliser - eet avec transition
Pour chacun des eets, trois modles sont alors considrs : dans la version AO
8
< (1) Xt = + t + DUt ( ) + Yt
pour t = 1; :::; T ;
(2) Xt = + t + DTt ( ) + Y t
pour t = 1; :::; T ;
:
(3) Xt = + t + DUt ( ) + DT t ( ) + Y t pour t = 1; :::; T ;
o (Yt ) est la srie (Xt ) laquelle on a retir la tendance dterministe, avec DUt ( ) = 1 si t > et 0 sinon
(DUt ( ) = I (t > )) et DT t ( ) = (t ) si t > , 0 sinon (DT t ( ) = [t ] :I (t > )). La mise en oeuvre du test se
fait en deux tapes ;
(i) estimation (par une mthode de type moindre carrs) de la tendance avec les modles de rgression (1), (2) et
(3), et calcul de la srie rsiduelle obtenue en retranchant la srie observe la tendance estime
(ii) pour les modles (1) et (3), le test est bas sur la valeur de la t-statistique relative = 0, not tb ( ) et
correspond au test de racine unit dans la rgression ADF
Yt = Y t1 +
k
X
j=0
dj DT Bt j ( ) +
k
X
i Y ti + "t
o DT Btj ( ) = I (t = + 1) :
i=1
k
X
i=1
132
iY ti + "t ,
Arthur CHARPENTIER
+
t
+
DU
(
)
+
DT
B
(
)
+
X
+
c
X
+
"
>
t
t
t
t1
ti
t
i=1 i
>
<
h
i
Pk
pour t = 1; :::; T ;
pour t = 1; :::; T ;
pour t = 1; :::; T ;
o, encore une fois, DT Bt ( ) = I (t = + 1). Le test de Zivot et Andrews (1992) considre seulement les modles
de type IO, sans introduire lindicatrice DT Bt j ( ) (la justication tant que ce coecient est asymptotiquement
ngligeable) 21 .
Toutefois, dans le cas gnral, la date de rupture est inconnue, ainsi que le paramtre k, permettant dapprocher
le processus ARM A (p; q) par un processus AR (k + 1). Direntes mthodes pour slectionner k ont t propose
par Perron (1989et 1993) pour les trois modles et les deux types deets, AO et IO. Les procdures squentielles
didentication de Zivot et Andrews (1992) et de Perron (1993) permettent de dterminer , ou plutt = =T . Cette
mthode consiste estimer les modles de rgressions (A), (B) et (C ) dans les deux cas AO et IO, et retenir le cas
o tb ( ) = tb () est minimal. Les auteurs ont tudi la disctribution asymptotique de inf tb () quand appartient
un intervalle ferm de ]0; 1[, = [3=20; 17=20] dans ltude de Zivot et Andrews. On rejette alors lhypothse nulle
de prsence de racine unit si inf ftb () ; 2 g est plus petit que le fractile correspondant une probabilit xe de
la distribution asymptotique de inf ftb () ; 2 g.
Les tests de Gregory et Hansen
(1996) Ces tests sont une gnralisation des tests de Zivot et Andrews dans le
Les tests du CU SU M Ce test permet dtudier la stabilit dun modle conomtrique estim au cours du temps.
Il existe deux versions de ce test : le CU SUM fond sur la somme cumule des rsidus rcursifs, et le C USU M SQ
(SQ pour square ) fond sur la somme cumule des carrs des rsidus rrursifs. Pour cela, on note (e"t) le rsidu
normalis par rapport lcart-type, cest dire e"t = b
" t=b
" , et on note k le nombre de paramtres estimer dans le
modles. Les statistiques St du CU SU M et St0 du CU SU M SQ sont dnies par
Pt
et
"i
i=k+1 e
2
"i
i=k+1 e
St = (T k) Pt
St0
Pt
i=k+1
PT
i=k+1
"e2i
"e2i
pour t = k + 1; :::; T ;
pour t = k + 1; :::; T:
Si les coecients sont variables au cours du temps, alors les rsidus rcursifs St doivent rester dans lintervalle dni
par
(2t + T 3k)
(2t + T 3k)
St 2
p
;+
p
;
Tk
Tk
o = 1:143; 0:918 ou 0:850 suivant que le seuil est 1%; 5% ou 10%. De la mme faon, les rsidus St0 doivent
appartenir lintervalle
tT
tT
0
St 2
C;
+C ;
Tk
Tk
o C est la constante du Durbin. En fait, on peut montrer que sous lhypothse de stabilit, lesprance de St0 est
E (St0 ) = (t T ) = (T k) allant de 0 1 quand t varie entre k et T . Plus prcisment, la variable St0 suit une loi Bta.
Le test de Chow ou test dhomoscdasticit Puisque les bruits blancs doivent tre homoscdastiques, le test
de Chow, visant comparer les variances des rsidus sur des sous-priodes, peuvent tre utiliss2 2 .
2 1 Ce
test est voqu ici car il existe des codes tlchargeables sur internet, en EV iews, SAS ou Gauss.
test nest pas dtaill ici puisquil se trouve dans tous les cours dconomtrie. Pour mmoire, ce test est un test de Fisher : on
considre un premier modle Y = X m + " m obtenu sur m observations, et un second modle Y = X n + "n obtenu sur n observations.
Le test de Chow permet de test lgalit de s coecient : m = n , ainsi que V ("m ) = V ("n ) :
2 2 Ce
133
7.4
Arthur CHARPENTIER
A cette tape, les coecients d; p et q ont t xs. Il convient alors destimer les paramtres
i et j du processus
ARIM A (p; d; q), ainsi que la volatilit 2 du bruit blanc. Sous lhypothse "t s N 0; 2 , on peut utiliser des
mthodes du type maximum de vraissemblance. On supposera ici que le processus (Xt) est centr.
7.4.1
Estimation pour les modles AR (p) par la m thode des moindres carrs
=
=
Lestimation des paramtres du modle X = Z 0 + " par la mthode des moindres carrs donne
2
X
1
1
b
= (ZZ 0 ) ZX et b 2 =
Xt Zt0b :
T (p + 1)
Toutefois, les rsultats usuels dconomtries ne sont pas vris ici, en particulier E b
6= . Il est toutefois possible
de montrer le rsultat suivant,
Proprit 52 Si les racines du polynme charactrisque (racines de (z) = 0) sont lextrieur du disque unit
alors
P
P
b ! et b
2 ! 2 ;
et de plus
1
L
T b
! N 0; 2 V o V = p lim
ZZ 0 :
T !1 T
Remarque 54 Si la mthode des moindres carrs peut tre utilise pour estimer les paramtres dun modle AR (p),
elle ne marche plus ds lors que lon a des termes autorgressifs sur les rsidus.
7.4.2
Pour dterminer la vraissemblance, il est ncessaire de supposer connue la loi des erreurs : nous supposerons les
erreurs normalement distribues. Les erreurs tant normalement distribues et indpendantes (le processus ("t ) est,
par hypothse un bruit blanc), le vecteur (" 1 ; :::; " n ) est un vecteur gaussien. Les composantes du vecteur (X1 ; :::; Xn )
tant obtenues par combinaisons linaires des composantes du vecteur ("1 ; :::; "n ), (X1 ; :::; Xn ) sera un vecteur gaussien
:
1
1
1
0 1
L X = (X1 ; :::; Xn )0 ; ; ; 2 =
exp
X
X
;
2 2
(2 2 )n=2 [det -]1=2
n
n
1=n 0
1=n
=
log (e0 e) log jdet Hj = log jdet Hj
e e jdet H j
:
2
2
La mthode du maximum de vraissemlance revient alors chercher le minimum de ` = jdet Hj1=n e0 e jdet Hj1=n :
log L
n
log 2
2
n
log 2
2
Une autre criture, relativement proche est possible dans le cas des processus M A (q). Soit " le vecteur dinnitialisation
des erreurs,
0
" = ("1 q; :::; " 1 ; "0 ) ;
0
permettant dengendrer la srie x 1; :::; x n : Considrons alors les vecteurs " = (" 1q ; :::; "1 ; " 0; " 1 ; :::; " n ) et X. On
peut alors crire
" = N X + M ";
134
Arthur CHARPENTIER
S () = (N X + M b" ) (N X + Mb" ) ;
M 0N X,
n
n
1
S ()
log L = log 2 log 2 log (det (M 0 M ))
:
2
2
2
2 2
Et nallement, puisquon peut crire 2 = S () =n, la fonction minimiser scrit
` = n log S () + log (det (M 0 M )) :
Exemple 84 Dans
le cas dun modle AR (1), de la forme Xt = c + Xt1 + "t o "t est i:i:d: et distribu suivant
Xt jXt 1 s N c + Xt 1 ; 2 :
Aussi, la loi conditionnelle de Xt est donne par
1
1
f x t jx t1 ; c; ; 2 = p
exp 2 (xt c x t1 )2 ;
2
2 2
Xt s N (E (Xt ) ; V (Xt)) soit Xt s N
c
2
;
1 1 2
T
Y
t= 2
1
2
exp 2 (Xt c Xt1 ) ;
2
2 2
1
T
T1
T 1
1 X
ln (2)
ln 2 + 2
(Xt c Xt1 )2 :
2
2
2
t=2
"
2 #
1 2
1 2
c
exp
X1
;
2 2
2 2
1
2
1 2
1
1
2
c
log L (; X1 ; :::; XT ) = ln (2) ln
X1
2
2
2 2
1
1 2
T
T 1
T 1 2
1 X
ln (2)
ln
(Xt c Xt1 ) 2 :
2
2
2 2
t=2
On peut noter que la maximisation de la vraissemblance exacte est un problme doptimisation non-linaire.
7.4.3
135
Arthur CHARPENTIER
t1
X
i=0
i xti ; pour t 2;
(35)
T
X
"2t
t=1
" t1
T
X
X
t=1
xt i
i=0
#2
p
X
i xti +
i=1
q
X
j "tj :
j= 1
t=1
i=1
j= 1
o les "tj peuvent tre crits en fonction des x tj ; :::; xt jp et des "tj 1 ; :::; "tq .
Critre des moindres carrs non conditionnel (M C N )
Exemple 86 Considrons ici un modle de la forme M A (1), Xt = "t "t 1; que lon notera, en considrant les
innovations en temps invers "t , Xt = "t " t+1 : On supposant " T +1 = 0, on dtermine rcurviement "T = x T ,"T 1 =
x T + "T ...etc. De faon rtrospective, on peut ainsi dir b
x0 = "1 : De faon anologue (35), on peut crire
xb0 =
T
X
t xT :
t=1
t=1
i=0
i= 1
!
T
1
1 X 2
f ("1 ; :::; "T ) =
exp 2
" :
T =2
2 t=1 t
(2 2 )
On supposera connues les valeurs initiales x et " . La densit de x peut sexprimer conditionellement " et x :
136
Arthur CHARPENTIER
Programme doptimisation Nous allons ici nous limiter un cas simple, dun modle M A (1), avec un critre de
type M C C. On part dune valeur initiale 0 , et on va mettre en place un algorithme convergent vers la vraie valeur
. A la i + 1-me tape, on estime i+1 en fonction de i en utilisant
@S ()
S ( i+ 1 ) = S (i ) + [i+1 i ] g ( ) o g ( ) =
;
@ =
o est compris entre i et i+1 . Aussi, on minimise la fonction S () en choisant i+1 de telle sorte que i soit de
signe oppos au gradient de S () en . Mais comme est inconnu, on choisit
i+1 = i g (i ) avec > 0
et ainsi, S ( i+1 ) < S (i ). Le gradient, sil est dicile valuer peut tre remplac par une dirence de la forme
[S ( i + ) S ( i)] = avec petit. Ces deux constantes et , propres lalgorithme, peuvent tre xe initialement,
par exemple = 0:001 et = 0:01.
Exemple 87 Considrons un cas relativement simple avec 6 observations (5; 6; 3; 2; 7; 6), et cherchons tel que Xt =
"t + "t1 :
(i)
(i)
(i)
0 = 0 et 0 + = 0:01. Alors S ( 0 ) = 52 + 6 2 + ::: + 7 2 + 6 2 = 159. Alors X1 = 5, X2 = X2 + ( 0 + ) X1 =
(i)
(i)
6 + 5 0:01 = 6:05, X3 = X3 + ( 0 + ) X2 = 3 + 6:05 0:01 = 3:06, :::etc. Do la somme S ( 0 + ) = 161:225.
Aussi, on obtient g (0 ) = 222:458 do nallement 1 = 0:222.
Cet algorithme se rpte ltape suivante, et les rsultats sont alors
itration i
0
1
2
3
4
5
6
i
i +
i
i +
i
i +
i
i
i
i
i
i
i
i
i
0:000
0:010
0:222
0:212
0:524
0:514
0:706
0:696
0:821
0:811
0:880
0:870
0:900
0:890
1
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
2
6:000
6:050
4:888
4:988
3:378
3:478
2:472
2:572
1:896
1:996
1:600
1:700
1:501
1:601
3
3:000
3:061
1:913
2:001
1:229
1:271
1:256
1:271
1:444
1:442
1:592
1:582
1:649
1:636
4
2:000
2:031
1:575
1:606
1:356
1:377
1:114
1:146
0:815
0:861
0:599
0:654
0:516
0:575
5
7:000
7:020
6:650
6:679
6:289
6:312
6:214
6:223
6:331
6:322
6:473
6:451
6:536
6:509
6
6:000
6:070
4:521
4:651
2:702
2:823
1:616
1:742
0:804
0:945
0:303
0:457
0:119
0:279
S (i )
159:00
161:22
119:68
122:70
86:61
88:42
75:16
76:31
72:07
72:66
72:44
72:64
72:97
73:01
g ( i)
222:46
i+1
0:222
302:02
0:524
181:06
0:706
115:23
0:821
59:32
0:880
19:73
0:900
4:01
0:905
Y t = + "t + "t1 o "t est i:i:d: et suit une loi N 0; 2 , avec jj < 1. La fonction de vraissemblance conditionnelle
1
1
2
2
f yt j"t1 ; ; ; = p
exp [Y t "t1 ]
2
2 2
Le problme est que "t1 est inobservable. Le raisonnement
est alors le suivant :
(Y 1 )
(36)
(on peut reconnatre la version tronque de la reprsentation AR (1) du processus M A (1)) La log vraissemblance
conditionelle est
T
T
T
1 X 2
ln (2) ln 2 2
" o " t est donne par (36)
2
2
2 t=1 t
137
Arthur CHARPENTIER
Complments : introduction au ltre de Kalman Un modle espace-tat est dni par le systme dquation
"t
V ("t )
cov ("t; t )
V
=-=
t
cov ("t ; t )
V ( t)
On dira alors
8
>
(Zt ) : tat du systme la date t : inobservable
>
>
>
(Y t ) : observations du systme la date t : observable
>
>
>
>
< (" t) : innovations du systme la date t : inobservable
( t ) : erreurs de mesure (ou bruit ) en t : inobservable
>
>
(At ) : matrice de transition
>
>
>
>
(C t ) : matrice de mesure
>
>
:
(C t Zt) : signal la date t
0
>
b
b
>
=
E
Z
Z
Z
Z
: erreur quadratique du ltre sur Zt en t
>
t t
t
t t
t
t t
>
<
b
t1 Zt = E (Z
tjY 0 ; :::; Yt1 ) : prvisionde
Zt faite en t 1
>
>
0
>
>
: t1 t = E Zt t1 Zbt Zt t1 Zbt
: erreur quadratique moyenne de prvision
b
E (Y t jY 0 ; :::; Y t1 ) et t1 Mt = V Y t t1 Y t alors
(c)
(c0 )
b =
t1 Y t
b
= Ct+1 :tZbt+1
0
M
t
t+1 = Ct+1 : t t+1 :C t+1 + R
t Y t+1
Dans le cas dit stationnaire, cest dire quand At = A et C t = C alors le modle se rcrit
Remarque 55 Dans le cas o les bruits sont corrls, des mthodes similaires peuvent tre utilises, en introduisant
le rsidu de la rgression de ("t ) sur ( t ).
Pour une prvision lordre h, on introduit une seconde itration : on cherche
8
(
< tM t+ h = V t Y
bt+ h Yt+ h
b
Y
=
E
(Y
jY
;
:::;
Y
)
t t+ h
t+h 0
t
et
b
:
t Zt+h = E (Zt+h jY0 ; :::; Y t )
= V Zb
Z
t
138
t+h
t+ h
t+h
Arthur CHARPENTIER
(pour h = 1 on retrouve le ltre de covariance ). Dans le cas o cov ("t ; t) = 0, on a les formules de rcurrence
(
0
b
b
t Yt+ h = C t+h :t Zt+h
t M t+h = Ct+h : t t+h :Ct+ h + R
et
b
b
t t+h = At+h +1 : t t+h1 :At+h 1 + Q
t Zt+h = At+ h1 : tZt +h1
La procdure itratif prend alors la forme suivante :
b0 = E (Z0 ) = m et 1 0 = V (Z0 ) = P
(i) initialisation : t = 0, h = 1, on pose 1 Z
(ii) formules (a) et (a0)
(iii) formules (b) et (b0 ), et (c) et (c0 )
(iv) si h < H (horizon de prvision ), alors h = h + 1 et (iii) ; sinon (v)
(v) si t < T alors t = t + 1 et h = 1, observation de Y t+1 , et (ii), sinon n
1 b
bt =t
b
Remarque 56 De faon analogue, on peut utiliser le ltre dinformation, bas sur t U
t :t Zt et t Ut+1 = t
1
t+1 :t Zbt+1 , et on alors les relations
()
()
b =t 1 U
bt + C 0 R1 Y t
t
01 b
b
: t Ut
t Ut+1 = [I M t] A
t Ut
et
1
1
1
o M t = N t Nt + Q 1
et N t = A0
:t 1
t
t :At .
7.4.4
0
(0 )
1
1
= t1
+ Ct0 R1 C t
t t
t
1
t t+ 1 = [I M t ] N t
Aprs avoir estim les paramtres p et q dun modle ARM A, il convient de vrier que les polynmes AR et M A
ne possdent pas de racine commune. Lorsque cest le cas, il y a redondance, ce qui peut conduire des erreurs lors
des prvisions. Il convient alors destimer les paramtres processus ARM A avec moins de retards (ou dautres types
de retards).
Comme lors dune regression linaire, un certain nombre dindicateurs sont intressants. Par exemple le test de
Student des paramtres permet de vrier que les paramtres sont bien signicatifs.
Il convient ensuite de vrier que le processus "t est eectivement
un bruit blanc. Par exemple, pour vrier que
p
la moyenne est nulle, on compare la moyenne " t=2 b
= n p q dans le cas dun processus p + q. Pour tester
labsence dautocorrlation de "t , il est possible dutiliser la statistique de Box & Pierce (Q) ou la statistique de Ljung
& Box (Q 0) dnies par
k
k
X
X
r2i
Q (k) = n
r2i et Q0 (k) = n (n + 2)
;
ni
i=1
i=1
qui sont comparer aux quantiles du chi-deux k (p + q) degrs de libert (lhypothse H0 teste tant (1) = ::: =
(h) = 0).
7.5
7.5.1
Comme nous le verrons par la suite, dans un modle ARM A, lerreur de prvision horizon 1 dpend de la variance
du rsidu. On peut alors choisir le modle conduisant la plus petite erreur de prvision. Plusieurs indicateurs sont
alors possibles :
(i) la variance du rsidu 2, ou la somme des carrs des rsidus SCR
(ii) le coecient de dtermination R2 , correspondant une normalisation de la variance
2
(iii) le coevient de dtermination modi R
(iv) la statistique de Fisher (comme dans le cas du modle linaire)
Le but est alors de minimiser (i), ou de maximiser (ii) ; (iii) ou (iv).
Exemple 88 Dans lexemple ci-dessous, considrons les 2 modles suivants : un modle ARM A (1; 1) gauche, ou
139
Arthur CHARPENTIER
LS // Dependent Variable is X
Sample: 5 5000
Included observations: 4996 after adjusting endpoints
Convergence achieved after 2 iterations
Variable
Coefficient
Std. Error
T-Statistic
Prob.
Variable
Coefficient
Std. Error
T-Statistic
Prob.
AR(1)
MA(1)
0.767134
-0.463423
0.019055
0.026398
40.25967
-17.55536
0.0000
0.0000
AR(1)
AR(2)
AR(3)
AR(4)
0.302722
0.143773
0.066880
0.041655
0.014141
0.014739
0.014740
0.014135
21.40765
9.754472
4.537428
2.946946
0.0000
0.0000
0.0000
0.0032
R -squared
0.183040
Adjusted R-squared 0.182877
S.E. of regression 1.008651
Sum squared resid 5083.836
Log likelihood
-7135.336
Durbin -Watson stat 2.002189
Inverted AR Roots
Inverted MA Roots
0.014388
1.115828
0.017628
0.020236
1119.579
0.000000
R -squared
0.183303
Adjusted R-squared 0.182812
S.E. of regression 1.008569
Sum squared resid 5077.916
Log likelihood
-7129.642
Durbin -Watson stat 1.999789
.77
.46
Inverted AR Roots
soit
8
< [1] : Xt = 0:767 Xt1 + "t 0:463 " t1
(0:019)
.73
0.014946
1.115693
0.017865
0.023082
373.4759
0.000000
-.38
(0:026)
(0:014)
(0:014)
(0:014)
[1]
[2]
2
R2
1:01737 0:18304
1:02751 0:17505
R
0:18287
0:17455
F -stat
1119:579
353:3722
Le modle [1] semble meil leur que le modle [2] : la variance du rsidu est plus faible, mais de plus, les trois autres
indicateurs sont plus levs dans le premier cas que dans le second.
7.5.2
Critre dinformation
Cette approche a t introduite par Akake en 1969. Cette mesure de lcart entre le modle propos et la vraie loie
peut tre obtenue laide de la quantit dinformation de Kullback.
Dnition 46 Soit f 0 la densit inconnue dobservations, et ff (:) ; f 2 F g la famille des densits parmi lesquelles
ont fait lestimation. Lcart entre la vraie loi et le modle est donn par
Z
f 0 (x)
I (f 0 ; F) = min log
:f 0 (x) dx
f 2F
f (x)
Cette quantit est toujours positive, et ne sannule que si f0 appartient F . Cette mesure tant inconnue puisque
b Plusieurs estimateur de la quantit dinformation ont
f 0 est inconnue, on essaiera de minimiser un estimateur de I, I.
t propos, dans le cas de modles ARM A (p; q), partir de T observations,
(i) Aikake (1969) :
p+q
2
AIC (p; q) = log b + 2
T
(ii) Schwarz (1977) :
log T
BIC (p; q) = log b
2 + [p + q]
T
(iii) Hanna-Quinn (1979) :
(p; q) = log b2 + [p + q] c
log (log T )
avec c > 2
T
Exemple 89 En reprenant lexemple prcdant un critre dAkake (AIC sous EViews) de 0:017628 pour le modle
ARM A (1; 1) contre 0:027968 pour le modle AR (4) : Ici encore, le modle ARM A est prfr au modle AR.
7.6
Application
Nous allons essayer ici de modliser la srie mensuelle du nombre de voyageurs SNCF.
140
7.6.1
Arthur CHARPENTIER
3000
2500
2000
1500
20
40
60
80
Compte tenu de la signicativit des premires autocorrlations (ou tout du moins le fait quelles sont signicativement
non-nulles pour les 40 premiers retards) suggre de direncier au moins un fois la srie,
1000
500
-500
-1000
20
40
60
80
La srie Y t = (1 L) Xt prsente alors de fortes corrlations pour les retards multiples de 12 (nous retrouvons ici la
saisonnalit annuelle longuement dveloppe dans les premires parties )
600
400
200
0
-200
-400
-600
-800
20
40
60
12
valeurs pour (1) et (12) suggre dintroduire une moyenne mobile de la forme (1 1 L) 1 2 L . Ce type de
reprsentation est conrm par la forme de lautocorrlogramme partiel : une modlisation de type AR ncessiterait
dintroduire un trop grand nombre de termes (les 5 premires valeurs de lautocorrlogramme
partiel tant signica
tivement non-nulles). De plus, la moyenne mobile (L) = (1 1 L) 1 2 L12 scrit
(L) "t = "t 1 "t 1 2 "t12 + 1 2 "t13
admettant des autocorrlations (h) non nulles pour h = 1; 11; 12; 13 (ce qui est conrm par le graphique des autocorrlations).
141
Arthur CHARPENTIER
Enn, lhypothse de processus centr (ne ncessitant pas dintroduire - a priori - de constance ou de tendance
linaire) semble galement valide. En eet, lamoyenne des Zt vaut 0:157, avec un cart-type empirique valant 169:
Sous SAS, ltude de la srie Zt = (1 L) 1 L12 Xt est la suivante :
ARIMA P r o c e d u r e
Partial
Name o f v a r i a b l e = Z .
Mean o f w o r k i n g s e r i e s = - 0 . 1 5 7 0 7
Standard deviation
= 168.8279
Number o f o b s e r v a t i o n s =
191
Autocorrelations
Lag Covariance C o r r e l a t i o n
0 28502.844
1.00000
1 -11527.504
-0.40443
2 -1271.936
-0.04462
3 -3278.476
-0.11502
4
1546.474
0.05426
5
262.944
0.00923
6
3733.456
0.13099
7 -4948.216
-0.17360
8
-130.960
-0.00459
9
1868.662
0.06556
10
294.871
0.01035
11
5193.622
0.18221
12 -11223.638
-0.39377
13
5065.270
0.17771
14
240.957
0.00845
15
-734.637
-0.02577
16
1448.290
0.05081
17
2045.000
0.07175
18 -5334.294
-0.18715
19
3949.733
0.13857
20 -2654.638
-0.09314
21
2322.265
0.08147
22
294.898
0.01035
23 -3150.481
-0.11053
24
725.116
0.02544
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
|
|********************|
|
********|
.
|
|
. *|
.
|
|
.**|
.
|
|
.
|* .
|
|
. | .
|
|
.
|***
|
|
***|
.
|
|
. | .
|
|
.
|* .
|
|
.
|
.
|
|
.
|****
|
|
********|
.
|
|
.
|****
|
|
.
|
.
|
|
. *|
.
|
|
.
|* .
|
|
.
|* .
|
|
****|
.
|
|
.
|***.
|
|
. **|
.
|
|
.
|** .
|
|
.
|
.
|
|
. **|
.
|
|
.
|* .
|
" . " m a r k s two s t a n d a r d e r r o r s
Autocorrelations
L a g C o r r e l a t i o n -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1
-0.40443 |
********|
.
|
2
-0.24890 |
*****|
.
|
3
-0.30362 |
******|
.
|
4
-0.21520 |
****|
.
|
5
-0.17387 |
***|
.
|
6
0.03620 |
.
|* .
|
7
-0.12206 |
.**|
.
|
8
-0.15158 |
***|
.
|
9
-0.04777 |
. *|
.
|
10
-0.05286 |
. *|
.
|
11
0.25287 |
.
|*****
|
12
-0.24737 |
*****|
.
|
13
-0.04140 |
. *|
.
|
14
-0.02084 |
. | .
|
15
-0.19385 |
****|
.
|
16
-0.03095 |
. *|
.
|
17
0.06008 |
.
|* .
|
18
-0.02038 |
. | .
|
19
0.01299 |
. | .
|
20
-0.13278 |
***|
.
|
21
0.05178 |
.
|* .
|
22
0.03507 |
.
|* .
|
23
-0.02833 |
. *|
.
|
24
-0.13250 |
***|
.
|
Std
0
0.072357
0.083357
0.083482
0.084307
0.084490
0.084495
0.085552
0.087377
0.087378
0.087635
0.087642
0.089603
0.098246
0.099915
0.099919
0.099954
0.100089
0.100358
0.102169
0.103148
0.103587
0.103922
0.103928
0.104541
A u t o c o r r e l a t i o n Check for W h i t e N o i s e
To
Lag
6
12
18
24
Chi
Square DF
Prob
38.73 6 0.000 -0.404
84.40 12 0.000 -0.174
100.19 18 0.000 0.178
110.46 24 0.000 0.139
Autocorrelations
-0.045 -0.115
-0.005 0.066
0.008 -0.026
-0.093 0.081
Inverse Autocorrelations
Lag Correlation
1
0.73489
2
0.63096
3
0.56496
4
0.46772
5
0.41320
6
0.32447
7
0.35323
8
0.32481
9
0.26680
10
0.27313
11
0.27810
12
0.33334
13
0.19712
14
0.16505
15
0.16600
16
0.10828
17
0.09897
18
0.10339
19
0.10580
20
0.10422
21
0.06369
22
0.06875
23
0.06838
24
0.04596
-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
|
.
|***************
|
|
.
|*************
|
|
.
|***********
|
|
.
|*********
|
|
.
|********
|
|
.
|******
|
|
.
|*******
|
|
.
|******
|
|
.
|*****
|
|
.
|*****
|
|
.
|******
|
|
.
|*******
|
|
.
|****
|
|
.
|***
|
|
.
|***
|
|
.
|**.
|
|
.
|**.
|
|
.
|**.
|
|
.
|**.
|
|
.
|**.
|
|
.
|* .
|
|
.
|* .
|
|
.
|* .
|
|
.
|* .
|
Lags
AR
AR
AR
AR
AR
AR
0
1
2
3
4
5
MA 0
MA 1
MA 2
MA 3
MA 4
0.1652
0.0641
0.0918
0.0489
0.0335
0.0008
0.0020
0.0092
0.0081
0.0001
0.0160
0.0167
0.0136
0.0106
0.0057
0.0058
0.0075
0.0282
0.0031
0.0015
0.0111
0.0135
0.0282
0.0165
0.0001
0.0020
0.0172
0.0083
0.0046
0.0073
SCAN Chi-Square[1]
Lags
AR
AR
AR
AR
AR
AR
0
1
2
3
4
5
MA 5
0.0180
0.0145
0.0276
0.0041
0.0001
0.0015
P r o b a b i l i t y Values
MA 0
MA 1
MA 2
MA 3
MA 4
0.0001
0.0004
0.0001
0.0022
0.0116
0.6949
0.5912
0.2884
0.3162
0.9271
0.1357
0.1124
0.1640
0.2934
0.3870
0.4653
0.2897
0.1028
0.5150
0.6334
0.3337
0.1913
0.1560
0.1577
0.9120
0.6320
0.1404
0.3314
0.4376
0.3767
MA 5
0.1168
0.1781
0.1356
0.4683
0.9981
0.6829
Nous retrouvons lautocorrlogramme et lautocorrlogramme partiel tel que nous lavions obtenu sous E V iews. SAS
fournit galement les autocorrlations inverse de Zt .
La sortie de la procdure ESAC F est la suivante
Extended Sample Autocorrelation Function
Lags
MA 0
AR
AR
AR
AR
AR
AR
-0.4044
-0.4658
-0.5064
-0.4882
-0.4944
0.1513
0
1
2
3
4
5
MA 1
MA 2
MA 3
MA 4
-0.0446
0.1111
-0.5251
-0.0734
-0.0310
-0.2850
-0.1150
-0.1610
-0.2854
0.1699
0.1540
-0.2818
0.0543
0.0659
0.0290
-0.2394
-0.3410
-0.4169
0.0092
-0.0008
0.0358
-0.0683
-0.3258
-0.3271
MA 5
0.1310
0.0831
0.1000
0.0560
-0.0023
-0.0197
MA 0
MA 1
MA 2
MA 3
AR
AR
AR
AR
AR
AR
0.0001
0.0001
0.0001
0.0001
0.0001
0.0391
0.5924
0.2338
0.0001
0.3873
0.7201
0.0001
0.1683
0.0471
0.0002
0.0558
0.0791
0.0001
0.5199
0.4580
0.7209
0.0089
0.0001
0.0001
0
1
2
3
4
5
MA 4
0.9131
0.9924
0.6767
0.4434
0.0011
0.0010
MA 5
0.1211
0.3614
0.2676
0.5225
0.9823
0.8555
7.6.2
q
1
0
ESACF p+d
0
2
5
q
2
3
5
142
Arthur CHARPENTIER
Les trois paramtres estimer sont 1 ; 2 et 2 . Une mtho de base sur les moindres carrs permet destimer les 3
paramtres de " t " t1 "t 12 + " t13 :
Conditional Least
LS // Dependent Variable is Z
Sample: 14 204
Included observations: 191 after adjusting endpoints
Convergence achieved after 8 iterations
Parameter
MA1,1
MA2,1
Variable
Coefficient
Std. Error
T-Statistic
Prob.
MA(1)
MA(12)
MA(13)
-0.768737
-0.475989
0.415363
0.046718
0.062662
0.060472
-16.45476
-7.596094
6.868676
0.0000
0.0000
0.0000
R-squared
0.471378
Adjusted R-squared 0.465755
S.E. of regression 123.7241
Sum squared resid 2877839.
Log likelihood
-1189.754
Durbin-Watson stat 1.792060
Inverted M A Roots
Estimate
0.83438
0.49261
Squares Estimation
Approx.
Std Error
0.04023
0.06872
T Ratio Lag
20.74
1
7.17 12
V a r i a n c e E s t i m a t e = 15407.0492
S t d E r r o r E s t i m a t e = 124.125135
AIC
= 2385.75684*
SBC
= 2392.26138*
Number o f R e s i d u a l s=
191
* Does not include log determinant .
Correlations of the Estimates
-0.157068
169.2716
9.651690
9.702773
83.82096
0.000000
Parameter
MA1,1
MA1,1
MA2,1
1.000
-0.030
MA2,1
-0.030
1.000
A u t o c o r r e l a t i o n Check of R e s i d u a l s
To
Lag
6
12
18
24
30
36
Chi
Square DF
7.49 4
13.95 10
19.61 16
22.54 22
26.98 28
34.07 34
Autocorrelations
Prob
0.112 0.148
0.175 -0.157
0.238 0.075
0.428 -0.040
0.520 0.088
0.465 0.031
-0.036
-0.062
0.054
-0.085
0.033
-0.004
Toutefois, cette estimation ( gauche, sous EViews ) ne permet pas dintgrer la contrainte = .
prcdure ARIMA sous SAS permet de prendre en compte ce genre de modle ( droite).
Toutefois, la
Remarque 57 La procdure ARIMA intgre une dclaration ESTIMATE permattant destimer des paramtres dun modles ARIM A (p; d; q). Parmi les options de cette dclaration, il est possible de choisir les options suivantes, P et Q.
Par exemple, en demandant P=(1,2,5)(6,12) on peut estimer les paramtres ; ; ; et pour un modle AR de
la forme
1 L L2 L5 1 L6 L12 = " t
Remarque 58 Il est ncessaire dutiliser sous SAS loption noconstant de la dclaration ESTIMATE an de ne pas
avoir de constante dans la rgression.
Do nallement le modle,
(1 L) 1 L12 Xt =
1 0:8344 L
(0:0402)
Vrication
On peut tout dabord noter que les rapports de Student des 2 paramtres 1 et 2 sont respectivment 21 et 7 ( 1:96)
: ce deux coecients sont signicatifs.
Comme le montre la sortie SAS prsente auparavant, pour les seuils h = 12; 24 et 36, les statistiques Q (h) valaient
respectivement 13:95, 22:54 et 34:07, alors que les quantiles de la loi du chi-deux 5% sont respectivement (pour 10; 22
et 34 degrs de libert) 18; 34 et 46. Puisque Q h 1 , on accepte lhypothse de test de bruit blanc sur les rsidus.
Toutefois, il serait bien sr possible damliorer le modle. En particulier, on peut noter que les rsidus prsentent
des pics au niveau de lautocorrlogramme pour les h multiples de 6.
143
Arthur CHARPENTIER
(Source: Les Formidables Aventures de Lapinot, Blacktown, de Lewis Trondheim, Dargaud, 2000)
144
Arthur CHARPENTIER
Dans toute statistique, linexactitude du nombre est compense par la prcision des dcimales.
(Alfred Sauvy)
Etant donne une srie stationnaire (Xt ), observe entre 1 et T , on cherche faire de la prvision horizon h, et donc
prvoir XT +1 ; :::; XT +h . Tous les processus AR, M A et ARM A seront supposs mis sous forme canonique, et navoir
aucune racine unit. Aussi, toutes les racines des polynmes autorgressifs et des polynmes moyennes-mobiles
auront leurs racines lextrieur du disque unit. Ainsi, pour tous les processus Xt tels que (L) Xt = (L) "t , " t
sera linnovation du processus Xt.
8.1
T XT +1
= 1XT + ::: + p XT p
car (" t) est linnovation. De faon analogue, XT +h = 1 XT +h 1 + ::: + p XT +hp + "T + h, et donc
E L (XT +h jXT ; XT 1 ; :::) est donn, de faon rcursive par
X
=
T T +h
1 :T XT +h 1 + ::: + p :T XT +h p pour h > p
T XT +h
Exemple 90 Dans le cas dun processus AR (1) tel que Xt = + Xt1 + " t alors
(i) T XT +1 = + XT ;
(ii) T XT +2 = + :T XT +1 = + [ + XT ] = [1 + ] + 2 XT ;
(iii) T XT +3 = + :T XT +2 = + [ + [ + XT ]] = 1 + + 2 + 3 XT ;
et rcursivement, on peut obtenir T XT +h de la forme
h
i
2
h1
+ hXT :
T XT +h = + :T XT +h1 = 1 + + + ::: +
Exemple 91 Une mthode alternative est de considrer le processus centr Y t = Xt =, alors Y t = Y t1 + " t.
h
1
1 h
h
+ XT
=
+ h XT :
T XT +h =
1
| {z }
1++2+: ::+h1
8.2
On supposera l aussi que lon sest ramen un processus centr (Xt ), satisfaisant
Xt = " t + 1 "t 1 + ::: + q "tq = (L) "t :
La prvision optimale la date T +1, faite la date T est T XT +1 = E L (XT +1 jXT ; XT 1 ; :::) = E L (XT +1 j"T ; "T 1 ; :::)
car (" t) est le processus dinnovation. Aussi,
De faon analogue, XT +h est estim par
T XT +h
T XT +1
T XT +h
h :T XT + ::: + q XT +h q pour h q
0 pour h > q:
(37)
Toutefois, cette mthode prsente le dsavantage destimer XT +h partir des rsidus passs, a priori non observables,
et non pas du pass de la variable.
145
8.2.1
Arthur CHARPENTIER
1
X
1
X
k=1
k=1
T XT +h =
h
X1
ak :T XT + hk +
k=1
1
X
ak Xt+h k
k=h
Toutefois, un des problmes est que les (Xt ) ne sont pas observs, en pratique, pour t < 0. On utilise alors lcriture
suivante
1
h 1
1
X
X
X
XT +h =
ak XT +hk + "t+h =
ak XT +h k +
ak XT +h k + " T +h ;
k=1
k=1
k=h
{z
Re st e d u ne s rie A CV
o le reste de la srie absolument convergente tend (au sens de L2 ) vers 0 quand T ! 1. On peut alors considrer,
quand T est susement grand que
T XT +h =
h1
X
ak :T XT +h k +
k=1
b
et on approxime T XT +h par T X
T +h
8.2.2
T
+h
X
ak XT +h k +
k=h
b
T XT +h =
h
1
X
k=1
1
X
k= T +h +1
b
ak : T X
T +hk +
TX
+h
ak XT +hk ;
{z
N g lige ab le (h yp .)
ak XT +hk :
k=h
XT +1 T XT + 1 = "T +1 :
La relation (37) permet dobtenir une estimation, la date T de XT +h . En se plaant la date T + 1, on peut noter
que T + 1 XT +h =T +1 X(T
+1)+( h1) et donc
T +1 XT +h =
et donc, pour h q + 1
T +1 XT +h
8.3
h1 "T +1 +T XT + h pour h q + 1
0 pour h > q + 1;
On supposera l aussi que lon sest ramen un processus centr (Xt ), satisfaisant
(L) Xt = (L) "t
Remarque 59 Dans le cas dun processus non centr, (L) Xt = + (L) "t , on peut noter que EXt = = (1) = m,
et que (L) (Xt m) = (L) "t . Il est donc toujours possible, en translatant le processus, de se ramener un processus
centr (pour des processus ARM A seulement).
146
Arthur CHARPENTIER
p
X
iXti + "t +
i=1
q
X
j= 1
p
X
i Xt+h i + "t+ h +
i=1
q
X
j " t+hj :
j=1
On a alors T XT +h = EL (XT + hjXT ; XT 1 ; :::) = E L (XT +h j"T ; "T 1 ; :::) car "t est le processus dinnovation. On peut
noter que pour h > q
X
=
T +1 T +h
1 :T XT +h 1 + ::: + p :T XT +h p pour h > p:
La forme gnrale des solutions est connue (comme dans le cas des AR (p)).
dinitialisation des calculs.
8.3.1
Lquation (L) Xt = (L) "t peut se rcrire 1 (L) (L) Xt = "t , cest dire, comme dans le cas des processus
M A (q),
1
1
X
X
Xt =
ak Xtk + "t et donc Xt+h =
ak Xt+h k + "t+h pour tout h 0;
k= 1
k=1
et de la mme faon que pour la modlisation AR (1) des processus M A (q), on peut rcrire
XT +h =
1
X
ak XT + hk + "t+h =
k=1
h1
X
k=1
ak XT +h k +
1
X
k=h
ak XT +h k + " T + h;
{z
n glig e ab le d an s L2
do la forme itrative, obtenue par approximation, en ne tenant pas compte du second terme, ngligeable dans L2 ,
b
T XT +h
8.3.2
h
1
X
k=1
b
ak : T X
T +hk +
TX
+h
ak XT +hk :
k=h
Utilisation de la forme M A (1) pu processus ARM A (p; q) et des formules de mise jour
b j "tj :
j=1
Puisque23 L2 (Xt ; Xt1 ; :::) = L2 (" t; "t 1 ; :::), on peut crire T XT +h = E L (XT +h jXT ; XT 1 ; :::) = EL (XT +h j"T ; "T 1 ; :::
soit
1
X
X
=
b j " t+hj :
T T +h
j=h
De plus, puisque
T + 1XT +h
=T +1 X(T
+1)+( h1) ,
T +1 XT +h
8.4
=T XT +h
on peut crire
On considrons ici (Xt ) satisfaisant une quation de la forme (L) (1 L) Xt = (L) "t avec les conditions initiales
0
Xt =
X
i=1
2 3 Cette
iXti + "t +
q
X
p+d
j= 1
X
i=1
q
X
j "t+hj :
j=1
proprit L2 (Xt ; Xt1 ; :::) = L2 ("t ; "t1; :::) est une caractrisation du fait que " t est linnovation du processus X t.
147
XT +h =
i :T XT +hi
i=1
Arthur CHARPENTIER
+0+
j :T "T + hj o
0 pour j < h
: T "T +hj =
j=1
"T +h j pour j h
T
T XT +h =
i :T XT +hi :
i=1
8.4.1
Utilisation de lapproximation AR
o les aj sont les coecients (pour j 1) de la division selon les puissances croissantes de par ; et f (t) est un
vecteur (ligne) de fonctions de t qui tend vers 0 quand t ! 1.
On peut alors crire
Xt+ h =
t+h
X
j= 1
et ainsi,
aj Xt+h j + f 0 (t + h) Z + "t+h ;
avec la convention
8.4.2
t+
Xh
aj :T XT +hj + f 0 (T + h) Z + 0;
j=1
h
1
X
k=1
Utilisation de lapproximation M A
bT +hk +
ak : T X
TX
+h
ak XT +hk :
k=h
o les hj sont les coecients de la division selon les puissances croissantes de par ; et g 0 (t) est un vecteur (ligne)
de fonctions de t.
La relation (38) permet alors dcrire
Xt+ h =
t+h
X
j= 1
Puisque L2 (Xt ; Xt1 ; :::) = L2 ("t ; "t1 ; :::), on peut crire T XT +h = E L (XT +h jXT ; XT 1 ; :::; X0 ; Z ) = E L (XT +h j"T ; "T
soit
T
+h
X
b j " T + hj + g 0 (T + h) Z;
T XT +h =
j=h
148
Arthur CHARPENTIER
Do la relation
8.5
b
T XT +h
TX
+h
bj "T +h j et
j=h
b
T +1 XT +h
T
+h
X
bj "T +hj :
j=h 1
h
i
b
b
b
X
=
X
+
b
X
X
: Formule de mise jour
T + 1 T +h
T
h 1
T +1
T
T +h
T +1
Cet intervalle est obtenu partir de la forme M A (1) dans le cas o (Xt) est stationnaire, ou de son approximation
M A dans le cas non-stationnaire (ARIM A).
(i) dans le cas stationnaire,
XT +h =
1
X
i= 0
b i"T +h i =
T
+h
X
i=0
b i" T +h i +
et donc
T h
b T + h t
= Xt+h T X
1
X
b i "T + hi + g (T + h) Z =
i=0
TX
+h
h
X
1
X
i= T +h +1
b i" T +h i;
bi "T +hi :
i=0
1
X
bi "T +hi +
i=0
bi "T +hi + g 0 (T + h) Z;
i=T +h+1
et donc
b
T h = Xt+h T XT + h t
h
X
bi "T +hi :
i=0
Sous lhypothse de normalit des rsidus ("t ), H0 : "t i.i.d., " t s N 0; 2 , alors
T
h =
b T +h
Xt+h T X
sN
b
4T X
T +h u 1=2
0;
h
X
i= 0
b 2i
v
3
u h
uX
bb 2 5 ;
:s t
i
i=0
o les bb i sont des estimateurs des coecients de la forme moyenne mobile, et s est un estimateur de la variance du
rsidu.
8.6
8.6.1
Considrons le processus stationnaire (Xt ), sous la forme gnrale Xt = 1 Xt 1 + + "t .La prvision horizon 1,
fait la date T , scrit
T XT +2
= 1T XT +1 + = 21 XT + [1 + 1] :
+ ::: + 1 + 1 :
T XT +h = 1 XT + 1
149
(39)
Arthur CHARPENTIER
On peut noter que quand h ! 1, T XT +h tend vers = (1 1 ), la moyenne du processus Xt . Lerreur de prvision
horizon h est donne par
T
=
=
T XT +h
XT +h = T XT + h [1 XT +h 1 + + "T +h ]
h
i
1
h 1
::: = T XT + h h1 XT + h
+
:::
+
+
1
+
"
+
"
+
:::
+
"
;
T
+h
T
+h
1
T
+1
1
1
1
1
T h
h
i
Vb = 1 + 21 + 41 + ::: + 2h2
2 ; o V (" t) = 2 :
1
1 :T XT +1 +
= 10:184:
T XT +2 =
(1 + 1 ) + 1 :XT
Do nallement les prvisions suivantes, avec la variance, lintervalle de conance, et la taille relative de lintervalle
de conance
horizon
T XT +h
Vb
0
10:738
90%
Binf
90%
Bsup
IC 90%
1
10:369
1:000
8:739
11:999
15:7%
2
10:184
1:250
8:362
12:007
17:9%
3
10:092
1:313
8:225
11:960
18:5%
4
10:046
1:328
8:168
11:925
18:7%
5
10:023
1:332
8:142
11:904
18:8%
6
10:012
1:333
8:130
11:893
18:8%
7
10:006
1:333
8:124
11:888
18:8%
Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation
relative de lintervalle de conance,
0.2
13
12
0.1
11
0.0
10
-0.1
9
8
10
15
20
25
30
X
BORNE_INF90
8.6.2
35
40
-0.2
45
10
BORNE_SUP90
SIMUL1
15
20
IC
25
IC_INF90
30
35
40
IC_SUP90
45
Arthur CHARPENTIER
o "T est lerreur de la dernire observation, la date T . De faon plus gnrale, on obtient rcursivement la prvision
horizon h,
(40)
T XT +h = E (XT +h jXT ; XT 1 ; :::; X1 ) = E ( + "T +h + 1 "T +h1 ) =
Cest dire qu partir dun horizon 2, la meilleure prvision est la moyenne du processus. Lerreur de prvision
horizon h est donne par
b = 1 + 21 2 o V ("t ) = 2
V
=
=
i=0
T XT +1
T XT +2
==5
Do nallement les prvisions suivantes, avec la variance, lintervalle de conance, et la taille relative de lintervalle
de conance
horizon
T XT +h
Vb
0
5:654
B 90%
inf
B 90%
sup
IC 90%
1
3:304
0:250
2:489
4:119
24:7%
2
5:000
1:250
3:178
6:822
36:4%
3
5:000
1:250
3:178
6:822
36:4%
4
5:000
1:250
3:178
6:822
36:4%
5
5:000
1:250
3:178
6:822
36:4%
6
5:000
1:250
3:178
6:822
36:4%
7
5:000
1:250
3:178
6:822
36:4%
Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation
relative de lintervalle de conance,
0.4
8
7
0.2
6
5
0.0
-0.2
3
2
10
15
20
25
X
SIMUL1
30
35
40
-0.4
45
10
BORNE_INF90
BORNE_SUP90
15
20
IC
151
25
30
IC_INF90
35
40
IC_SUP90
45
8.6.3
Arthur CHARPENTIER
Il sagit ici dun modle AR (1) pour la variable intgre Y t = Xt Xt1 , Y t = 1 Yt 1 + + " t. Aussi, la prvision
horizon h = 1 est donne par
T XT +1 = XT + T Y T + 1 ;
et de faon plus gnrale
T
En substituant aux
T XT +1
= (1 + 1 ) XT 1 XT 1 + ;
T XT +2
= 1 + 1 + 21 XT 1 + 21 XT 1 + (1 + 1) + :
+ ::: + 1 + 1
T YT +h = 1 Y T + 1
T
XT +h =T XT +1 + 1 :T Y T+h1 + :
=
=
=
do la variance
1
"T + h + (1 + 1 ) "T +h 1 + ::: + 1 + 1 + ::: + h
"T +1 ;
1
T YT + 1
2
0
12 3
h
i1
6X @X j A 7 2
Vb = 4
1 5 :
i=1
j=0
Lerreur de prvision sur XT + h est alors laccumulation des erreurs de prvision de YT +1 ; :::; Y T +h .
Exemple 94 Considrons le processus (Xt ) tel que Xt Xt 1 = Y t o (Y t ) vrie,
Y t = 2 + 0:2Y t1 + "t o "t s N (0; 1) ;
dont les dernires observations ont t 81.036, 84.074 et 86.586. Le processus (Y t) sous-jacent peut tre obtenu comme
dirence entre Xt et Xt 1 . On cherche alors les prvisions de (Yt ) et les prvisions de (Xt ) correspondent la somme
des (Y t ) prvus (processus intgr).
(Xt )
(Y t )
70:788
73:606
2:818
74:937
1:331
78:035
3:098
81:036 84:074
3:001
3:037
86:586
2:512
T XT +1
et donc
= XT +T Y T+1 o
YT+1 = + 1 Y T = 2:502;
T Y T +1 = + 1 Y T = 2:5024
T XT +2 = XT +T YT +1 +T YT +2 o
T Y T +2 = + 1 : T Y T +1 = 2:5005
152
Y
2:512
2:502
T T +h
86:586 89:088
T XT +h
b
V
1:000
90%
Binf
87:458
Bs90%
90:718
up
IC 90%
1:8%
Arthur CHARPENTIER
3
2:500
94:089
3:978
90:838
97:340
3:5%
4
2:500
96:589
5:535
92:754
100:42
4:0%
5
2:500
99:089
7:097
94:747
103:43
4:4%
6
2:500
101:59
8:659
96:793
106:39
4:7%
7
2:500
104:09
10:22
98:878
109:30
5:0%
Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation
relative de lintervalle de conance,
0.08
130
0.06
120
0.04
110
0.02
100
0.00
90
-0.02
-0.04
80
-0.06
70
30
32
34
36
38
X
BORNE_INF90
8.7
8.7.1
40
42
44
46
-0.08
48
BORNE_SUP90
SIMUL1
10
15
20
IC
25
30
IC_INF90
35
40
45
IC_SUP90
Application
Example de prvision : cas dcole
b = E L XT +1 jXT =
o lon suppose que "t est gaussien, centr, de variance connue 2 = 0:5, avec XT = 12 et T X
T +1
10, o XT = fX1 ; :::; XT ; Zg.
b
La prvision horizon h faite en T est T X
T +h = E XT +h jXT .
b
(i) estimation de T X
T +h : Cette forme ARIM A scrit
Xt 1 Xt 1 2 Xt2 = "t + 1 "t1 , avec une racine unit.
b
b
b
Aussi, pour h 2, on peut crire T X
T +h 1 : T XT +h1 2 : T XT +h 2 = 0: Pour expliciter les solutions, on se
ramne au problme suivant : recherche des suites u n telle que un = u n1 + u n2 24 . Les racines du polynme
bT +k = :1h + : (1=2)h : Compte tenu du fait que XT = 12 et
caractristique tant 1 et 1=2, on peut crire T X
b
T XT +1 = 10 on en dduit = 8 et = 4. Aussi
b
T XT +h
= 8+
4
do les premires valeurs f12; 10; 9; 8:5; 8:25; 8:125; :::g
2k
(ii) expression de lintervalle de conance : Lintervalle de conance 95% de la prvision est de la forme
"
#
r
r
b
b
b
b
V T XT +h ;T XT +h + 1:96 V T XT +h :
T XT +h 1:96
u1 = r1 + r 2
u2 = r12 + r22
153
Arthur CHARPENTIER
Cette variance sobtient en approximant la forme ARIM A par une forme M A (1),
XT +1 XT = "T + b 1 "T 1 + b 2 "T 2 + :::
On note alors que
8
XT +1 XT = " T +1 + b1 "T + b 2 "T 1 + :::
>
>
<
XT +2 XT +1 = "T +2 + b 1 "T +1 + b 2 "T + :::
:::
>
>
:
XT +h XT +h 1 = "T +h + b 1 "T +h 1 + b 2" T + h2 + :::
do , par sommation, lexpression de XT +h XT et en considrant la variance (puique les "t sont identiquement
distribus, de variance 2 , et surtout indpendant),
h
i
bT +h = 2 1 + (1 + b 1 )2 + (1 + b 1 + b 2 )2 + ::: + (1 + b 1 + ::: + b h )2 :
V TX
1
Or lexpression des b i est donne par la relation B (L) = (L) 1 (L) = (1 0:8L) (1 0:5L)
L2
L3
B (L) = (1 0:8L) 1 + 0:5L + 0:52 L2 + ::: = 1 0:3L 0:3
0:3 2 :::
2
2
1
1
1
1 + b 1 + :::b j = 1 0:3 1 + + + ::: + j1
2
4
2
et donc
V
1
= 1 0:6 1 j
2
= 0:4 +
0:6
;
2j
2
h1
X
0:6
2
b
0:4 + j
:
T XT +h =
2
j=0
12:000
1
8:040
8:360
10:000
11:640
11:960
19:6%
2
6:444
6:862
9:000
11:138
11:556
28:4%
3
5:560
6:040
8:500
10:960
11:440
34:6%
4
5:015
5:543
8:250
10:957
11:485
39:2%
5
4:639
5:209
8:125
11:041
11:611
42:9%
6
4:353
4:959
8:063
11:166
11:772
46:0%
7
4:116
4:755
8:031
11:307
11:947
48:7%
8
3:906
4:577
8:016
11:454
12:125
51:3%
9
3:715
4:416
8:007
11:600
12:301
53:6%
10
3:535
4:265
8:004
11:743
12:473
55:8%
On notera bien sur cet exemple que les prvisions laide dun modle ARIM A moyen terme sont dj relativement
incertaines. Graphiquement, on obtient, gauche, la prvision suivante (avec les intervalles de conance 90% et
95%), et droite, lvolution relative de lintervalle de conance en fonction de lhorizon de prvision
14
0.6
12
0.4
10
0.2
0.0
-0.2
-0.4
-0.6
2
1
X
BORNE_INF90
BORNE_SUP90
10
11
IC
IC_INF90
IC_SUP90
BORNE_INF95
BORNE_SUP95
154
IC_INF95
IC_SUP95
10
11
8.7.2
Arthur CHARPENTIER
Considrons ici la srie du nombre de voyageurs SNCF, et la modlisation ARIM A que nous avions pu faire,
12
12
(1 L) 1 L
Xt = 1 0:8344 L
1 0:4926 L
"t :
(0: 0402)
(0:0687)
(41)
La srie Zt peut alors tre utilise pour faire de la prvision, laide de sa modlisation M A, sous SAS
600
ARIMA Procedure
400
Forecasts for variable Z
Obs
205
206
207
208
209
210
211
212
213
214
215
216
217
Lower 95%
-300.2647
5.7195
-272.8513
-463.1890
-416.9416
-260.5465
-327.1535
-266.0176
-221.5919
-429.6002
-340.1863
-243.2313
-375.6110
200
Upper 95%
186.2969
639.4083
360.8374
170.4997
216.7472
373.1422
306.5353
367.6711
412.0968
204.0885
293.5024
390.4574
301.8924
0
-200
-400
-600
-800
20
40
60
Comme nous le voyons sur cet exemple, la prvision laide dun modliation ARM A reste relativement oue, mme
ici court terme (un exemple analogue sera repris plus en dtails dans la partie suivante).
155
Arthur CHARPENTIER
Nous allons ici nous intresser 2 applications de ces modles sur donnes relles. Dans une premire partie, nous
allons voir comment utiliser cette mthode en assurance-vie, an de prvoir un nombre de contrats dans un portefeuille.
Dans une seconde partie, nous allons voir comment utiliser cette mthode en nance, pour modliser des taux dintrt.
Enn, dans une troisime partie, nous allons nous intresser lapplication de cette mthode sur des donnes simules.
9.1
Nous allons considrr ici le nombre de contrats dans un portefeuille, exprim en nombre de contrats mensuels, laide
de donnes mensuelles, sur une dizaine dannes (source :Droesbeke, Fichet, Tassi (1992))
600
500
400
300
200
100
0
20
40
60
80
100
120
140
La srie brute (Xt ) prsente une forte saisonnalit, correspondant aux mois de septembre. En particulier 4 points se
distinguent, correspondant 4 fortes campagnes de publicit faites partir de n aot.
9.1.1
Modlisation de la srie
40
60
80
100
120
140
156
Arthur CHARPENTIER
Toutefois, une tude des tests de racine unit sur la srie (Xt) aurait permi de comrmer lhypothse de stationnarit
de la srie
Null Hypothesis: X has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=10)
t-Statistic
-8.531272
-4.105534
-3.480463
-3.168039
Variable
Coefficient
Std. Error
t-Statistic
Prob.
X(-1)
C
@TREND(80)
-1.108362
296.8203
-0.689283
0.129918
43.59923
0.698095
-8.531272
6.807926
-0.987377
0.0000
0.0000
0.3273
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.540368
0.525541
104.3387
674966.5
-392.7920
1.953637
2.907692
151.4768
12.17822
12.27857
36.44527
0.000000
-1.108362
296.8203
-0.689283
0.540368
0.525541
104.3387
674966.5
-392.7920
1.953637
Adj. t-Stat
Prob.*
-8.537252
-4.105534
-3.480463
-3.168039
0.0000
10384.10
10040.64
Std. Error
t-Statistic
Prob.
0.129918
43.59923
0.698095
-8.531272
6.807926
-0.987377
0.0000
0.0000
0.3273
2.907692
151.4768
12.17822
12.27857
36.44527
0.000000
avec le test ADF (avec constante et tendance), gauche, et le test de Philipps et Perron droite. Ces deux tests
rejettent lhypothse de prsence de racine unit.
Cette approche napportant rien de plus ltude de la srie, nous pouvons noter que la srie brute Xt possde
de fortes
(h) quand h est un multiple de 12. Il est donc possible dtudier la srie dsaisonnalise
autocorrlations
Zt = 1 L12 Xt
400
200
-200
-400
20
40
60
80
100
120
140
Nous allons modliser cette srie (Zt ) laide dun processus ARM A:
9.1.2
Si la srie parat stationnaire, une autocorrlation reste signicativement non nulle, pour h = 12. Il peut tre intressant
de considrer un modle de type M A (12) sur cette srie,
[1]
1 L12 Xt = + 1 1 L12 "t
157
Arthur CHARPENTIER
tant donn que les autocorrlations entre 1 et 11 peuvent sembler ngligeables. Une mthode base sur des moindres
carrs conditionnels, donne les estimations suivantes (respectivement avec et sans constante)
LS // Dependent Variable i s Z
Sample: 13 144
Included observations: 132 after adjusting endpoints
Convergence achieved after14 iterations
LS // Dependent Variable is Z
Sample: 13 144
Included observations: 132 after adjusting endpoints
Convergence achieved after 1 7 iterations
Variable Coefficient
Std . Error
T-Statistic
C
2.086042
MA(12) -0.881818
1.845862
0.043054
1.130118
-20.48182
R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat
0.258916
0.253216
56.89094
420755.3
-719.7222
1.517747
Inverted MA Roots
.99
.49+.86i
-.49 -.86i
Prob.
0.2605
0.0000
4.750000
65.83328
8.097308
8.140987
45.41878
0.000000
.86+.49i
-.00 -.99i
-.86 -.49i
Variable Coefficient
Std. Error
T-Statistic
MA(12) -0.899009
0.032780
-27.42595
R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
0.250655
0.250655
56.98839
425445.6
-720.4538
Inverted MA Roots
.49 -.86i
-.49+.86i
-.99
.99
.50 -.86i
-.50+.86i
Prob .
0.0000
.86+.50i
-.00 -.99i
-.86+.50i
.86 -.50i
-.00+.99i
-.86 -.50i
4.750000
65.83328
8.093242
8.115081
1.502360
.50+.86i
-.50 -.86i
-.99
[1]
1L
12
Xt =
1 + 0:89901L
(0:0328)
12
"t
o la volatilit de lerreur ("t ) est estime par 57. Les rsidus, reprsents ci-dessous gauche, ont lautocorrlogramme
suivant
400
200
400
300
-200
200
-400
100
0
-100
20
40
60
80
Residual
100
120
Actual
140
Fitted
Le modle prsent est rejet : les erreurs ne suivent pas un bruit blanc. En particulier, si lon considre les
autocorrlations de (Zt) la premire semble signicativement non nulle : ceci pousse tester un modle ARM A (1; 12)
de la forme (1 L) Zt = 1 L12 "t , soit
LS // Dependent Variable is Z
Sample: 14 144
Included observations: 131 after adjusting endpoints
Convergence achieved after 10 iterations
LS // Dependent Variable is Z
Sample: 14 144
Included observations: 131 after adjusting endpoints
Convergence achieved after 13 iterations
Variable Coefficient
Std. Error
T-Statistic
Prob.
Variable Coefficient
Std. Error
T-Statistic
Prob.
C
1.959250
AR(1) 0.238275
MA(12) -0.882966
2.238375
0.085711
0.039380
0.875300
2.779982
-22.42171
0.3831
0.0063
0.0000
AR(1)
0.247243
MA(12) -0.890845
0.084927
0.034450
2.911259
-25.85917
0.0042
0.0000
R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.301621
0.290709
55.64982
396403.6
-710.8628
2.040467
R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.297269
0.291822
55.60616
398873.8
-711.2697
2.049872
Inverted AR Roots
Inverted MA Roots
.24
.99
.49+.86i
-.49+.86i
[2]
4.656489
66.07720
8.060792
8.126636
27.64084
0.000000
Inverted AR Roots
Inverted MA Roots
.86+.49i
.00 -.99i
-.86+.49i
.86 -.49i
-.00+.99i
-.86 -.49i
.49 -.86i
-.49 -.86i
-.99
.25
.99
.50 -.86i
-.50+.86i
.86+.50i
-.00 -.99i
-.86+.50i
.86 -.50i
-.00+.99i
-.86 -.50i
12
12
1 0:24724 L 1 L Xt = 1 + 0:89085 L
"t
(0:084)
(0:0345)
158
4.656489
66.07720
8.051737
8.095633
54.56963
0.000000
.50+.86i
-.50 -.86i
-.99
Arthur CHARPENTIER
300
-200
200
-400
100
0
-100
20
40
60
80
Residual
100
120
Actual
140
Fitted
LS // Dependent Variable is Z
Sample : 16 144
Included observations: 129 after adjusting endpoints
Convergence achieved after 8 iterations
Variable Coefficient
Std. Error
T-Statistic
Prob.
Variable Coefficient
Std. Error
T-Statistic
AR(1)
0.203724
AR(2)
0.054332
AR(3)
0.152170
MA(12) -0.893591
0.087952
0.090117
0.089481
0.034620
2.316310
0.602907
1.700579
-25.81143
0.0222
0.5477
0.0915
0.0000
AR(1)
0.215663
AR(3)
0.164294
MA(12) -0.892081
0.085560
0.086724
0.034309
2.520598
1.894447
-26.00140
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.323645
0.307412
55.41111
383798.9
-698.9180
1.988017
R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.321653
0.310886
55.27198
384929.0
-699.1077
2.011660
Inverted AR Roots
Inverted MA Roots
.65
.99
.50+.86i
-.50 -.86i
-.22 -.43i
.86+.50i
-.00 -.99i
-.86 -.50i
4.558140
66.58241
8.060077
8.148754
19.93805
0.000000
Inverted AR Roots
.63
Inverted MA Roots
.99
.50 -.86i
-.50+.86i
.50 -.86i
-.50+.86i
-.99
Prob.
0.0130
0.0605
0.0000
-.21+.47i
.86+.50i
-.00 -.99i
-.86+.50i
-.21 -.47i
.86 -.50i
-.00+.99i
-.86 -.50i
4.558140
66.58241
8.047513
8.114021
29.87288
0.000000
.50+.86i
-.50 -.86i
-.99
[3]
1 0:21566L 0:16429L3 1 L12 Xt = 1 + 0:89208L12 "t
( 0:086)
(0:087)
(0:0343)
On peut galement noter que les racines des polynmes de la composante AR et de la composante M A sont distinctes
deux deux. Toutefois, lallure des rsidus, reprsente ci-dessous, pousse encore une fois rejeter lhypothse de
bruit blanc des erreurs,
400
200
0
400
300
-200
200
-400
100
0
-100
-200
20
40
60
Residual
80
100
Actual
120
140
Fitted
En revenant au modle prcdant, on peut noter la prsence dune forte autocorrlation lordre 9. On peut alors
159
Arthur CHARPENTIER
LS // Dependent Variable is Z
Sample: 14 144
Included observations: 131 after adjusting endpoints
Convergence achieved after 13 iterations
Variable Coefficient
C
AR(1)
MA(9)
MA(12)
Std. Error
3.716450
0.208215
0.226980
-0.684472
3.669678
0.088354
0.058097
0.060959
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted AR Roots
Inverted MA Roots
T-Statistic
Prob.
Variable Coefficient
Std . Error
T-Statistic
Prob.
1.012745
2.356593
3.906922
-11.22845
0.3131
0.0200
0.0002
0.0000
AR(1)
0.214089
MA(12) -0.674685
MA(9) 0.234509
0.087981
0.060045
0.057176
2.433366
-11.23631
4.101524
0.0163
0.0000
0.0001
R -squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.333420
0.323004
54.36816
378354.7
-707.8105
1.997797
0.338724
0.323103
54.36419
375344.1
-707.2872
1.995098
.21
.94
.50 -.86i
-.47 -.82i
do le modle
.85 -.46i
-.02+.97i
-.83 -.51i
[4]
.85+.46i
-.02 -.97i
-.83+.51i
1 0:21409L
( 0:088)
4.656489
66.07720
8.021470
8.109262
21.68428
0.000000
Inverted AR Roots
Inverted MA Roots
.50+.86i
-.47+.82i
-.99
1L
12
Xt =
.21
.94
.50+.86i
-.47+.81i
.85 -.46i
-.03 -.97i
-.83 -.51i
1 0:23450 L + 0:67498L
(0:060)
4.656489
66.07720
8.014192
8.080036
32.01242
0.000000
12
( 0:060)
.50 -.86i
-.47 -.81i
-.99
"t
L encore, le mo dle est signicatif, et surtout, lhypothse de bruit blanc des rsidus est valide :
400
200
300
200
-200
100
-400
0
-100
-200
20
40
60
80
Residual
100
Actual
120
140
Fitted
Ce modle peut alors tre utilis pour faire de la prvision. Sous SAS, nous obtenons les prvisions suivantes, sur
10 mois, pour Zt
h
Z
T T +h
volatilit
1
19:92
55:20
2
12:88
56:08
3
16:18
56:11
4
12:52
56:11
5
9:18
56:11
400
400
200
200
6
69:64
56:11
7
27:40
56:11
8
9:86
56:11
9
52:36
56:11
10
32:02
56:11
-200
-200
-400
-400
20
40
60
VALEUR
FORECAST
80
100
120
80
140
85
90
BORNE_INF90
BORNE_SUP90
BORNE_INF90
BORNE_SUP90
On peut alors noter que T XT +h = T XT + h12 + T ZT + h. De plus, la variable Xt peut alors tre prdite en utilisant la
forme M A (1) du processus Zt : (1 L) Zt = 1 L9 L12 "t . Ainsi,
Zt
=
=
1
1
(1 L)
1 L9 L12 = (1 0:21409:L)
1 0:23450:L9 + 0:67498:L12 " t
Arthur CHARPENTIER
pour
pour
pour
pour
i=0
1i8
9 i 11
11 i
h
1
X
2
X
=
[1 + b 1 + ::: + b j ]
T
T +h
j=0
1
117:08
54:37
T XT +h
volatilit
2
177:12
85:52
3
241:18
109:57
4
173:48
129:50
5
172:18
146:81
800
800
600
600
400
400
200
200
-200
-200
20
40
60
80
VALEUR
FORECAST
9.2
6
234:36
162:29
100
120
140
80
85
90
7
173:4
176:41
9
255:36
201:73
10
277:02
209:47
BORNE_INF90
BORNE_SUP90
8
167:86
189:49
BORNE_INF90
BORNE_SUP90
Nous allons considrr ici les taux 3 mois du trsor amricain (source :Pindyck et Rubinfeld (1998)), donnes
mensuelles, de Janvier 1960 Mars 1996
20
16
12
8
4
0
60
65
70
75
80
85
90
95
161
Arthur CHARPENTIER
Lautocorrlogramme de la srie bute des taux (Xt ) permet de se rendre compte rapidement que la srie nest pas
stationnaire. La srie direncie Y t = Xt Xt1 a lallure suivante
4
2
0
-2
-4
-6
60
65
70
75
80
85
90
95
La srie ainsi forme semble stationnaire. A titre comparatif, la srie Zt obtenue en direnciant 2 fois donne des
rsultats ne semblant pas signicativement dirents
4
2
0
-2
-4
-6
60
65
70
75
80
85
90
95
Modlisation de la srie
Compte tenu de lallure des autocorrlogrammes de Yt , nous pouvons penser modliser la srie Xt par un processus
ARM A (p; q). La mthode du coin, dcrite auparavant, donne le tableau - suivant
inj
1
2
3
4
5
6
9.2.2
1
0:272
0:116
0:102
0:042
0:055
0:180
2
0:189
0:041
0:006
0:007
0:004
0:043
3
0:007
0:006
0:003
0:002
0:005
0:012
4
0:024
0:001
0:001
0:002
0:002
0:003
5
0:041
0:003
0:001
0:003
0:001
0:001
6
0:148
0:040
0:011
0:003
0:001
0:000
Lestimation donne les rsultats suivants (la constante tait clairement non signicative),
( 0:083)
162
Arthur CHARPENTIER
LS // Dependent Variable is Y
Sample : 1960:01 1996:03
Included observations: 435
Convergence achieved after 4 iterations
Variable
Coefficient
Std . Error
T-Statistic
AR(1)
MA(1)
-0.324261
0.662163
0.104881
0.082710
-3.091706
8.005835
R-squared
0.112854
Adjusted R-squared 0.110805
S.E. of regression 0.515486
Sum squared resid 115.0593
Log likelihood
-327.9853
Durbin-Watson stat 1.989933
Inverted AR Roots
Inverted M A Roots
Prob .
0.0021
0.0000
0.000892
0.546661
-1.320703
-1.301966
55.08189
0.000000
-.32
-.66
2
0
4
-4
65
70
75
Residual
80
85
Actual
90
T Ratio Lag
0.03
0
-7.68
1
-2.97
1
-6
To
Chi
Lag Square DF
6
19.81 4
12
49.71 10
18
91.46 16
24 116.80 22
30 125.85 28
36 130.82 34
42 131.09 40
48 137.03 46
-2
-4
60
Approx.
Std Error
0.03114
0.08545
0.10726
-2
2
Estimate
0.0009002
-0.65661
-0.31902
95
Prob
0.001
0.000
0.000
0.000
0.000
0.000
0.000
0.000
Autocorrelations
0.005 -0.012 -0.106 -0.037 0.081
-0.151 0.082 0.173 0.024 0.011
-0.019 0.218 -0.176 0.068 0.041
-0.000 -0.203 -0.112 0.007 -0.003
-0.009 0.043 0.104 0.043 -0.069
-0.065 0.007 -0.066 -0.022 -0.033
0.001 0.016 -0.012 0.010 0.008
0.012 0.002 -0.020 0.023 -0.104
-0.159
-0.083
0.085
-0.041
-0.012
-0.019
0.003
0.017
Fitted
Si les estimations semblent signicative (compte tenu du niveau de la T -stat ), le rsidu ne semble pas tre un bruit
blanc. Ltape suivante est donc daugmenter le nombre de paramtres.
9.2.3
Lestimation donne les rsultats suivants (la constante tant l aussi non signicative),
(0: 141)
( 0:186)
LS // Dependent Variable is Y
Sample : 1960:01 1996:03
Included observations: 435
Convergence achieved after 11 iterations
Variable
Coefficient
Std. Error
T-Statistic
AR(1)
AR(2)
MA(1)
MA(2)
0.563991
0.125419
-0.238277
-0.461184
0.195947
0.140515
0.1857620.155933
2.878290
0.892566
1.282700
-2.957584
R-squared
0.119815
Adjusted R-squared 0.113689
S.E. of regression 0.514649
Sum squared resid 114.1564
Log likelihood
-326.2718
Durbin -Watson stat 1.986863
Inverted AR Roots
Inverted MA Roots
.73
.81
Prob.
0.0042
0.3726
0.2003
0.0033
0.000892
0.546661
-1.319386
-1.281911
19.55661
0.000000
-.17
-.57
163
(0:156)
Arthur CHARPENTIER
Parameter
MU
MA1,1
MA1,2
AR1,1
AR1,2
2
0
4
-2
2
-6
65
70
75
80
Residual
85
90
Actual
T Ratio Lag
0.07
0
1.15
1
2.29
2
2.64
1
0.42
2
-2
-4
60
Approx.
Std Error
0.02470
0.20740
0.17076
0.21504
0.14731
-4
Estimate
0.0018425
0.23910
0.39060
0.56668
0.06125
95
Fitted
Prob
0.000
0.000
0.000
0.000
0.000
0.000
0.000
0.000
Autocorrelations
0.002 0.022 -0.029 -0.038 0.123 -0.144
-0.128 0.089 0.168 0.012 0.039 -0.079
-0.013 0.226 -0.181 0.072 0.035 0.059
0.008 -0.205 -0.105 0.000 -0.016 -0.047
-0.012 0.028 0.093 0.031 -0.070 -0.013
-0.070 -0.001 -0.071 -0.031 -0.035 -0.030
-0.004 0.008 -0.016 0.005 0.006 -0.006
0.013 -0.009 -0.023 0.019 -0.108 0.016
2
2
1 0:565 L 0:129 L Y t = 0:004 + 1 0:239 L 0:465 L " t
(0:194)
(0:140)
(0:024)
(0:183)
(0:154)
Encore une fois, lhypothse de bruit blanc des rsidus est rejete, de part la prsence dautocorrlations signicativement non nulles.
9.2.4
Lestimation donne les rsultats suivants (la constante tant l aussi non signicative),
2
3
4
2
3
4
1 0:656 L + 0:563 L 0:386 L + 0:456 L Yt = 1 0:341 L + 0:254 L 0:179 L 0:732 L "t
( 0:102)
(0:118)
(0:118)
(0: 098)
( 0:079)
(0:084)
(0:083)
(0:077)
LS // Dependent Variable is Y
Sample: 1960:01 1996:03
Included observations: 435
Convergence achieved after 21 iterations
Variable
Coefficient
Std. Error
T-Statistic
AR(1)
AR(2)
AR(3)
AR(4)
MA(1)
MA(2)
MA(3)
MA(4)
0.656518
-0.562635
0.385954
0.456434
-0.341849
0.254008
-0.179371
-0.732405
0.101944
0.118552
0.118100
0.098600
0.079426
0.084136
0.083193
0.076658
6.440006
-4.745877
3.268017
4.629142
-4.304007
3.018997
-2.156092
-9.554205
R-squared
0.186601
Adjusted R-squared 0.173266
S.E. of regression 0.497051
Sum squared resid 105.4946
Log likelihood
-309.1089
Durbin- Watson stat 1.966731
Inverted AR Roots
Inverted MA Roots
.98
1.00
Prob.
0.0000
0.0000
0.0012
0.0000
0.0000
0.0027
0.0316
0.0000
0.000892
0.546661
-1.379905
-1.304956
13.99393
0.000000
-.49
-.75
Parameter
MU
MA1,1
MA1,2
MA1,3
MA1,4
AR1,1
AR1,2
AR1,3
AR1,4
2
0
4
-2
2
-4
Estimate
0.0015377
-0.93247
-0.51607
0.33273
0.32631
-0.56650
-0.37411
0.29264
-0.05048
Approx.
Std Error
0.02530
0.20932
0.34370
0.33343
0.16789
0.21310
0.28332
0.25505
0.12451
T Ratio Lag
0.06
0
-4.45
1
-1.50
2
1.00
3
1.94
4
-2.66
1
-1.32
2
1.15
3
-0.41
4
-6
-2
-4
60
65
70
75
Residual
80
Actual
85
90
95
Fitted
164
Chi
Square
0.00
25.70
53.83
75.58
82.92
88.91
DF
0
4
10
16
22
28
Prob
0.000
0.000
0.000
0.000
0.000
0.000
Autocorrelations
0.001 -0.006 -0.001 0.049 0.004 -0.100
-0.085 0.003 0.189 0.037 -0.029 -0.016
-0.013 0.184 -0.123 0.045 0.007 0.105
-0.038 -0.192 -0.082 -0.020 -0.017 -0.041
-0.017 0.032 0.087 0.036 -0.074 -0.005
-0.060 -0.013 -0.075 -0.019 -0.050 -0.021
9.2.5
Arthur CHARPENTIER
Coefficient
Std. Error
T-Statistic
Prob.
AR(1)
AR(2)
AR(3)
AR(4)
AR(5)
AR(6)
AR(7)
AR(8)
MA(1)
MA(2)
0.832927
-0.713119
0.227474
-0.182781
0.196717
-0.326733
0.085217
0.063868
-0.506487
0.375754
0.234792
0.268505
0.128585
0.087076
0.076248
0.089358
0.115162
0.087090
0.232037
0.223857
3.547511
-2.655889
1.769058
-2.099087
2.579957
-3.656453
0.739972
0.733359
-2.182785
1.678544
0.0004
0.0082
0.0776
0.0364
0.0102
0.0003
0.4597
0.4637
0.0296
0.0940
R-squared
0.205297
Adjusted R- squared 0.188468
S.E. of regression 0.492460
Sum squared resid 103.0698
Log likelihood
-304.0513
Durbin -Watson stat 1.997998
0.000892
0.546661
-1.393963
-1.300277
12.19898
0.000000
2
0
4
-2
2
-4
Estimate
0.0013416
0.48361
-0.30774
0.80989
-0.63535
0.19796
-0.16464
0.19163
-0.30877
0.06239
0.09180
Constant Estimate =
Variance Estimate =
Std Error Estimate =
AIC
=
SBC
=
Number of Residuals=
-6
-2
Approx.
Std Error
0.02589
0.24886
0.24844
0.24937
0.29763
0.13780
0.08924
0.07493
0.09036
0.11887
0.09070
T Ratio
0.05
1.94
-1.24
3.25
-2.13
1.44
-1.84
2.56
-3.42
0.52
1.01
Lag
0
1
2
1
2
3
4
5
6
7
8
0.00101303
0.24414457
0.49410988
630.559134*
675.362624*
434
-4
60
65
70
75
Residual
9.2.6
80
85
Actual
90
95
Lag
12
24
36
Fitted
Square
8.79
56.98
67.16
To
Chi
Autocorrelations
DF
Prob
2 0.012 0.038 -0.018 -0.014 -0.013 0.125 -0.022
14 0.000 -0.060 -0.157 -0.076 -0.017 -0.015 -0.042
26 0.000 -0.069 -0.013 -0.059 -0.001 -0.059 -0.061
Coefficient
Std. Error
T-Statistic
AR(1)
AR(2)
AR(3)
AR(4)
AR(5)
AR(6)
AR(7)
AR(8)
MA(1)
MA(2)
MA(3)
MA(4)
0.453658
-0.768228
0.313455
-0.792703
0.334490
-0.366035
-0.017904
0.035879
-0.111388
0.562973
-0.136900
0.630228
0.145520
0.135070
0.110000
0.113391
0.076348
0.073980
0.076594
0.074208
0.137724
0.130136
0.092114
0.092707
3.117492
-5.687621
2.849606
-6.990908
4.381140
-4.947751
-0.233757
0.483495
-0.808774
4.326037
-1.486189
6.798074
R-squared
0.227772
Adjusted R-squared 0.207691
S.E. of regression 0.486593
Sum squared resid 100.1548
Log likelihood
-297.8114
Durbin- Watson stat 2.002816
Prob.
0.0019
0.0000
0.0046
0.0000
0.0000
0.0000
0.8153
0.6290
0.4191
0.0000
0.1380
0.0000
0.000892
0.546661
-1.413457
-1.301034
11.34236
0.000000
165
9.2.7
Arthur CHARPENTIER
Choix du modle
0:515
0:515
0:497
0:492
0:487
ARIM A (1; 1; 1)
ARIM A (2; 1; 2)
ARIM A (4; 1; 4)
ARIM A (8; 1; 2)
ARIM A (8; 1; 4)
R2
0:113
0:120
0:186
0:205
0:228
R
0:111
0:114
0:173
0:188
0:208
F -stat
55:082
19:556
13:994
12:199
11:342
AIC
1:3207
1:3193
1:3049
1:3939
1:4134
Aucun modle ne semble vraiment bien modliser la srie. En fait, aucun modle de type ARM A ne pourra
prendre en compte le pic de volatilit au dbut des annes 80. En fait, nous le verrons par la suite, les modles ARCH
permettent de prendre en compte ce genre de comportement.
9.3
Considrons dsormais la courbe suivante, reprsentant des donnes mensuelles, sur la priode Janvier 1990-Janvier
2001.
4
2
0
-2
-4
-6
90
91
92
93
94
95
96
97
98
99
00
01
Au vu de lallure de la srie ( gauche) et de son corrlogramme ( droite), on peut armer que le processus Xt
est stationnaire. Nous allons donc essayer de modliser Xt laide dun processus ARM A (p; q). Au regard de
lautocorrlogramme partiel, une modlisation laide dun processus AR (2) semblerait possible. Les sorties cidessous correspondent lestimation des paramtres dun processus AR (2), respectivement avec et sans constante.
La constante ne semblant pas signicative, on peut retenir lide dun modle AR (2) sans constante.
166
Arthur CHARPENTIER
4
2
0
4
-2
-4
-6
0
-2
-4
91
92
93
94
Residual
95
96
97
Actual
98
99
00
Fitted
Sur cette srie des rsidus b"t, il est possible de tester un modle AR (12),
dont lautocorrlogramme des rsidus suit un bruit blanc : lhypothse de modle AR (12) pour b
" t. Il est aussi possible
de tester un modle M A (12),
Cette modlisation M A (12) est alors valide. Nous avons donc vu quen crivant (L) Xt = "t le processus "t pouvait
se mettre sous la forme " t = (L) t , et donc (L) Xt = (L) t :
On peut alors tester un modle ARM A (2; 1) ; avec 2 retards sur la composante AR et un terme dordre 12
(uniquement) pour la composante M A. Lestimation est donne ci-dessous, en haut gauche et les autres graphiques
donnent des informations sur les rsidus,
4
2
0
-2
-4
2
-6
0
-2
-4
91
92
93
94
Residual
167
95
96
97
Actual
98
99
Fitted
00
Arthur CHARPENTIER
20
Series: Residuals
Sample 1990:03 2001:01
Observations 131
15
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
10
-0.021336
0.011268
3.534483
-2.516675
0.960506
0.270334
3.925844
Jarque-Bera 6.274403
Probability
0.043404
0
-2
-1
Le modle semble tre valid. On peut dailleurs noter que les racines des polynmes AR et M A sont distinctes deux
deux, et lextrieur du disque unit (E V iews donne linverse des racines, qui doivent tre lintrieur du disque
unit).
Lautocorrlogramme aurait aussi pu suggrer un modle avec un retard dordre 11 sur la srie initiale,
Comme on le voit sur la sortie (ci-dessus gauche) la composante AR dordre 11 est signicativement non nulle.
Toutefois, comme auparavant, les rsidus ne suivent pas un bruit blanc, lautocorrlation partielle dordre 12 tant
signicativement non nulle, on peut alors tester un modle AR (12) sur cette srie. Le modle pouvant tre retenu, on
peut alors modliser la srie Xt par un quation de la forme
Xt = Xt1 + Xt 2 + Xt 11 + "t "t12
Toutefois, la sortie ci-dessous gauche montre que la composante autocorrgressive dordre 11 nest pas signicative.
On en revient alors considrer le modle prcdant, t = Xt1 + Xt2 + "t "t12
168
Arthur CHARPENTIER
Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
2.765782
1.00000 |
|********************|
1.773621
0.64127 |
. |*************
|
0.435508
0.15746 |
.
|*** .
|
-0.347034
-0.12547 |
. ***|
.
|
-0.649323
-0.23477 |
*****|
.
|
-0.251108
-0.09079 |
. **|
.
|
0.300811
0.10876 |
.
|** .
|
0.667198
0.24123 |
.
|*****
|
0.654841
0.23677 |
.
|*****
|
0.197798
0.07152 |
.
|*
.
|
-0.371829
-0.13444 |
. ***|
.
|
-0.976420
-0.35304 |
*******|
.
|
-1.259860
-0.45552 |
*********|
.
|
-0.645783
-0.23349 |
.*****|
.
|
0.018853
0.00682 |
.
|
.
|
0.481153
0.17397 |
.
|*** .
|
0.751913
0.27186 |
.
|*****.
|
0.409392
0.14802 |
.
|*** .
|
-0.149954
-0.05422 |
.
*|
.
|
-0.601785
-0.21758 |
. ****|
.
|
-0.612205
-0.22135 |
. ****|
.
|
-0.088030
-0.03183 |
.
*|
.
|
0.434812
0.15721 |
.
|***
.
|
0.614522
0.22219 |
.
|**** .
|
0.422268
0.15268 |
.
|***
.
|
"." marks two standard errors
Inverse Autocorrelations
Std
0
0.086711
0.117059
0.118640
0.119634
0.123049
0.123552
0.124270
0.127742
0.131000
0.131293
0.132324
0.139226
0.150014
0.152722
0.152724
0.154207
0.157769
0.158810
0.158949
0.161173
0.163443
0.163489
0.164622
0.166862
Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1
-0.77526 |
****************| .
|
2
0.52645 |
. |***********
|
3
-0.40775 |
********| .
|
4
0.36394 |
. |*******
|
5
-0.31446 |
******| .
|
6
0.24728 |
. |*****
|
7
-0.25439 |
*****| .
|
8
0.23272 |
. |*****
|
9
-0.19539 |
****| .
|
10
0.19393 |
. |****
|
11
-0.25485 |
*****| .
|
12
0.33300 |
. |*******
|
13
-0.23752 |
*****| .
|
14
0.10711 |
. |**.
|
15
-0.01011 |
. | .
|
16
-0.02764 |
. *| .
|
17
0.02954 |
. |* .
|
18
-0.05536 |
. *| .
|
19
0.03948 |
. |* .
|
20
-0.01601 |
. | .
|
21
0.03232 |
. |* .
|
22
-0.04912 |
. *| .
|
23
0.02409 |
. | .
|
24
0.00858 |
. | .
|
Chi
Square
72.01
140.87
168.83
200.13
DF
6
12
18
24
Estimation Method:
Maximum Likelihood
Parameters Estimated:
3
Termination Criteria:
Maximum Relative Change in Estimates
Iteration Stopping Value:
0.001
Criteria Value:
0.00048293
Alternate Criteria:
Relative Change in Objective Function
Alternate Criteria Value:
4.91058E-6
Maximum Absolute Value of Gradient:
0.04331511
R-Square (Relative Change in Regression SSE) from Last Iteration
Step:
0.00032913
Objective Function:
Log Gaussian Likelihood
Objective Function Value:
-188.10066
Marquardt's Lambda Coefficient:
1E-8
Numerical Derivative Perturbation Delta:
0.001
Iterations:
3
Autocorrelations
Prob
0.000 0.641 0.157 -0.125 -0.235 -0.091 0.109
0.000 0.241 0.237 0.072 -0.134 -0.353 -0.456
0.000 -0.233 0.007 0.174 0.272 0.148 -0.054
0.000 -0.218 -0.221 -0.032 0.157 0.222 0.153
ARIMA Procedure
MA1,1
0.4555
0.6174
0.5998
0.6024
0.6020
AR1,1
0.9177
0.9204
0.9180
0.9184
0.9183
AR1,2
-0.4310
-0.4411
-0.4457
-0.4452
-0.4452
Lambda
0.00001
1E-6
1E-7
1E-8
1E-9
R Crit
1
0.162007
0.02348
0.003393
0.000525
Loglike
-188.11308
-188.10091
-188.10067
-188.10066
MA1,1
0.6020
0.5914
0.5931
0.5928
AR1,1
0.9183
0.9253
0.9252
0.9252
AR1,2
-0.4452
-0.4525
-0.4519
-0.4520
Lambda R Crit
0.00001
1
1E-6 0.01455
1E-7 0.002016
1E-8 0.000329
Estimate
0.59280
0.92523
-0.45195
Approx.
Std Error
0.08028
0.07630
0.07619
T Ratio
7.38
12.13
-5.93
Lag
12
1
2
L aussi, le modle est valid (avec des valeurs lgrement direntes des estimateurs, venant des mthodes de calculs
direntes sous SAS et E V iews). Le modle retenu est alors le suivant
Xt = 0:92523 Xt1 0:45195 Xt2 + " t 0:5928 " t12 o "t s BB (0; 0:984)
(0:0763)
(0:0762)
( 0:0803)
SAS donne galement des prvisions (avec intervalle de conance 90% ) de (Xt ). Ces prvisions ont t reprsentes sur le graphique ci-dessous droite,
ARIMA Procedure
Autoregressive Factors
Factor 1: 1 - 0.92523 B**(1) + 0.45195 B**(2)
Moving Average Factors
Factor 1: 1 - 0.5928 B**(12)
Lower 95%
-0.7325
-0.8858
-1.3212
-1.9988
-2.6099
-2.6928
-2.7286
-3.1260
-3.4710
-2.5422
-2.2292
-2.5605
-2
Upper 95%
3.1232
4.3670
4.1579
3.4830
2.9392
2.9029
2.8740
2.4770
2.1351
3.0658
3.3790
3.0478
-4
-6
95
96
97
X
FORECAST
98
99
00
01
BORNE_SUP90
BORNE_INF90
Les graphiques ci-dessous montrent le processus (Xt ), sa prvision (avec intervalle de conance), et 1 puis 2 simulations
169
Arthur CHARPENTIER
-2
-2
-4
-4
-6
95
96
97
98
X
SIMUL1
BORNE_INF90
99
00
-6
98:01
01
BORNE_SUP90
FORECAST
98:07
99:01
99:07
X
FORECAST
SIMUL1
00:01
00:07
01:01
01:07
SIMUL2
BORNE_INF90
BORNE_SUP90
Comme on peut le noter, la prvision laide de processus ARM A donne de relativement bons rsultats.
9.4
Les deux sries suivantes correspondent du trac automobile, sur deux autoroutes franaises, lA7 et lA13, en
donnes mensuelles,
80000
70000
60000
50000
40000
30000
20000
10000
1990
1991
1992
1993
A007
1994
1995
1996
A013
Les deux sries sont certes, trs corrles entre elles (non dvelopperont ce point dans la partie suivante, sur la
modlisation des sries multivaries ), mais elles sont surtout
cycliques, comme le montrent les autocorrlogrammes.
Nous allons donc travailler ici sur les sries Y t = 1 L12 Xt = Xt Xt12 ,
20000
15000
10000
5000
0
-5000
-10000
-15000
1990
1991
1992
DA007
9.4.1
1993
1994
1995
1996
DA01 3
Arthur CHARPENTIER
Tentons tout dabord une modlisation ne faisant intervenir que le retard lordre 12, on obtient alors
20000
10000
15000
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(12)
664.4503
-0.349683
331.7515
0.119648
2.002856
-2.922612
0.0498
0.0049
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.126465
0.111659
3496.734
7.21E+08
-583.2731
2.226113
Inverted AR Roots
.88+.24i
.24+.88i
-.65+.65i
.65 -.65i
-.24 -.88i
-.88 -.24i
10000
-10000
5000
645.1803
3709.991
19.18928
19.25849
8.541663
0.004914
-20000
-5000
-10000
-15000
.65 -.65i
-.24+.88i
-.88+.24i
1992
1993
Residual
1994
Actual
1995
1996
Fitted
La constante et la composante AR (12) sont ici toutes deux signicatives. De plus, lautocorrlogramme des rsidus
(prsent ci-desssous gauche) ainsi que le test de Box Pierce conduiensent accepter lhypothse de bruit blanc (au
sens L2 ) des rsidus. Nanmoins, si lon regarde la srie des rsidus, prsente ci-dessus droite, on peut noter que
certains pics periodiques apparaissent, mais le signe de ces pics ne permet pas de mettre en avant une autocorrlation
ventuelle de ces rsidus. Mais si lon regarde lautocorrlogramme du carr des rsidus, on peut noter que lhypothse
de bruit blanc au sens fort est rejeter : les carrs des rsidus sont clairement autocorrls. Nous sommes ici en
prsence dun eet GARC H sur les rsidus, notion que nous tudierons plus en dtails par la suite.
9.4.2
171
Arthur CHARPENTIER
An damliorer la prvision, il peut tre intressant de tester un modle ARM A (4; 4) puisque ce sont les dernires
valeurs qui pourraient sembler signicatives sur les autocorrlogrammes.
Dependent Variable: DA013
Method: Least Squares
Date: 06/05/03 Time: 14:43
Sample(adjusted): 1991:01 1996:09
Included observations: 69 after adjusting endpoints
Convergence achieved after 22 iterations
Backcast: 1990:09 1990:12
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(1)
AR(2)
AR(3)
AR(4)
MA(1)
MA(2)
MA(3)
MA(4)
542.3256
0.231052
0.354618
0.260947
-0.378479
-0.222646
-0.480386
-0.207426
0.934617
255.2653
0.120712
0.112041
0.116229
0.121658
0.020711
0.023240
0.022297
0.026394
2.124557
1.914081
3.165075
2.245119
- 3.110998
- 10.75022
- 20.67077
- 9.303057
35.40974
0.0378
0.0604
0.0024
0.0285
0.0029
0.0000
0.0000
0.0000
0.0000
R- squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted AR Roots
Inverted MA Roots
0.340761
0.252862
1093.358
71725932
-575.8786
1.933998
.69+.31i
.83+.52i
613.8261
1264.917
16.95300
17.24441
3.876750
0.000974
.69 - .31i
.83 - .52i
-.58 -.58i
-.72 -.66i
-.58+.58i
-.72+.66i
On peut noter que tous les retards semblent signicatifs, et le bruit associ vrie lhypothse de bruit blanc : un
modle ARM A (4; 4) convient. Toutefois, en toute rigueur, le premier retard de sa composante dautocorrlation
(AR(1)) ne passe pas le seuil de 5% : il est possible dessayer de lenlever de la rgression. On obtient alors
Dependent Variable: DA013
Method: Least Squares
Date: 06/05/03 Time: 14:46
Sample(adjusted): 1991:01 1996:09
Included observations: 69 after adjusting endpoints
Convergence achieved after 16 iterations
Backcast: 1990:09 1990:12
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(2)
AR(3)
AR(4)
MA(1)
MA(2)
MA(3)
MA(4)
520.8973
0.539645
0.270148
-0.404489
-0.120464
-0.660822
-0.103716
0.954459
242.9550
0.108087
0.101843
0.108105
0.013922
0.015333
0.013349
0.016257
2.144007
4.992716
2.652590
-3.741632
-8.652958
-43.09873
-7.769263
58.71185
0.0360
0.0000
0.0102
0.0004
0.0000
0.0000
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat
0.308872
0.229562
1110.276
75195450
-577.5083
1.797891
613.8261
1264.917
16.97126
17.23028
3.894504
0.001440
Inverted AR Roots
Inverted MA Roots
.68 -.30i
.84+.53i
.68+.30i
.84 -.53i
-.68 -.54i
-.78 -.60i
-.68+.54i
-.78+.60i
o, cette fois-ci, tous les coecients sont signicatifs au seuil de 5%. Et l aussi, lhypothse de bruit blanc pour les
rsidus est valide. Les rsidus des deux rgressions sont prsents ci-dessous, de gauche droite,
2000
4000
4000
2000
2000
0
2000
-2000
1000
-2000
1000
-4000
-4000
-1000
-1000
-2000
-2000
-3000
-3000
1991
1992
Residual
1993
1994
Actual
1995
1991
1996
1992
Residual
Fitted
[A INSERER]
172
1993
1994
Actual
1995
Fitted
1996
9.5
Arthur CHARPENTIER
Considrons la srie suivante, reprsentant le nombre de victimes sur les routes, en France, en donnes mensuelles,
20000
19000
18000
17000
16000
15000
14000
13000
12000
11000
92
93
94
95
96
97
98
99
00
01
VICTIMES_ACCIDEN
-3000
92
93
94
95
96
97
98
99
00
01
D_VICTIMES
En utilisant lauto corrlogramme de cette srie, nous allons modliser (Y t ) laide dun processus ARM A (p; q).
Modlisation laide dun processus AR (12)
Compte tenu de la forme de lautocorrlogramme, nous pouvons, par le principe de parcimonie, tenter une modlisation relativement simple, laide dun processus AR (12). Une modlisation laide dun polynme 1 L12 donne
les rsultats suivants,
Dependent Variable: D_VICTIMES
Method: Least Squares
Date: 07/18/03 Time: 06:59
Sample(adjusted): 1994:01 2001:11
Included observations: 95 after adjusting endpoints
Convergence achieved after 3 iterations
2000
1000
0
Variable
Coefficient
Std. Error
t-Statistic
Prob.
AR(12)
-0.252692
0.092678
-2.726572
0.0076
R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
-0.092661
-0.092661
962.3526
87055511
-786.8877
Inverted AR Roots
.86+.23i
.23 -.86i
-.63 -.63i
.63 -.63i
-.23+.86i
-.86 -.23i
-387.5368
920.6434
16.58711
16.61399
0.808405
2000
-1000
1000
-2000
-3000
-1000
.63+.63i
-.23 -.86i
-.86+.23i
-2000
-3000
94
95
96
Res idual
97
98
Actual
99
00
01
Fitted
Le paramtre est eectivement signicatif, et le rsidu semble correspondre un bruit blanc (hypothse valide par
le test de Box Pierce), toutefois, la qualit de lajustement ne peut manifestement pas convenir. Lestimation dun
173
Arthur CHARPENTIER
modle AR (12) complet (avec les 12 composantes ), en enlevant ensuite, une une, les composantes non-signicatives
(une des tapes tant propose droite)
Dependent Variable: D_VICTIMES
Convergence achieved after 3 iterations
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(1)
AR(2)
AR(3)
AR(4)
AR(5)
AR(6)
AR(7)
AR(8)
AR(9)
AR(10)
AR(11)
AR(12)
-403.1510
0.373193
-0.028210
0.041577
0.003752
-0.008166
0.012129
0.062211
-0.052965
0.133121
-0.075842
-0.011995
-0.357608
88.13528
0.100646
0.105584
0.104470
0.103359
0.103532
0.103316
0.104500
0.104848
0.105012
0.105460
0.104314
0.095975
- 4.574229
3.707971
- 0.267185
0.397978
0.036302
- 0.078870
0.117397
0.595317
- 0.505165
1.267679
- 0.719149
- 0.114987
- 3.726044
0.0000
0.0004
0.7900
0.6917
0.9711
0.9373
0.9068
0.5533
0.6148
0.2085
0.4741
0.9087
0.0004
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat
0.378505
0.287555
777.0825
49516291
-760.0861
1.851256
Inverted AR Roots
.93+.22i
.25 -.89i
-.58 -.64i
-387.5368
920.6434
16.27550
16.62497
4.161668
0.000044
.69+.66i
-.23 - .87i
-.88+.27i
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(1)
AR(3)
AR(7)
AR(9)
AR(10)
AR(12)
-404.4320
0.362837
0.031491
0.049055
0.112071
-0.083440
-0.355504
87.66986
0.090355
0.085447
0.083384
0.093093
0.092096
0.083454
- 4.613125
4.015707
0.368541
0.588299
1.203859
- 0.906003
- 4.259889
0.0000
0.0001
0.7134
0.5578
0.2319
0.3674
0.0001
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat
0.375645
0.333075
751.8479
49744218
-760.3042
1.826335
Inverted AR Roots
.93+.22i
.24+.88i
- .59+.65i
.69 - .66i
-.23+.87i
-.88 -.27i
.69 -.66i
- .21+.86i
- .88+.27i
-387.5368
920.6434
16.15377
16.34195
8.824230
0.000000
.69+.66i
-.21 -.86i
-.88 -.27i
Le modle nal, o toutes les composantes sont signicative comporte toujours le retard dordre 12, ainsi que le retard
dordre 1, ainsi que la constante, que nous avions omise auparavant,
Dependent Variable: D_VICTIMES
Method: Least Squares
Date: 07/18/03 Time: 07:26
Sample(adjusted): 1994:01 2001:11
Included observations: 95 after adjusting endpoints
Convergence achieved after 3 iterations
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(1)
AR(12)
-398.4806
0.367802
-0.370033
76.31964
0.086803
0.079309
-5.221207
4.237205
-4.665704
0.0000
0.0001
0.0000
R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat
0.359326
0.345398
744.8694
51044394
-761.5298
1.842573
Inverted AR Roots
.93 -.24i
.27+.88i
-.62+.65i
-387.5368
920.6434
16.09536
16.17601
25.79936
0.000000
.69 -.65i
-.21+.88i
-.86 -.24i
.69+.65i
-.21 -.88i
-.86+.24i
Comme le montre le graphique de droite, lhypothse de bruit blanc des rsidus est valide par le test de Box Pierce.
De plus, la justement est nettement meilleur que dans le cas prcdant, comme le montre le graphique ci-dessous
gauche.
2000
1000
0
-1000
2000
-2000
1000
-3000
0
-1000
-2000
-3000
94
95
96
Residual
97
98
Actual
99
00
01
Fitted
12 (cd secion sur les modles SARIM A). Mais sil lon direncie (Y t ) en notant Zt = 1 L12 Y t , on obtient
lautocorrlogramme prsent ci-dessus droite : la direnciation napporte rien.
Modlisation laide dun processus ARMA (12; 12)
174
Arthur CHARPENTIER
Compte tenu de la prsence dune autocorrlation partielle et dune autocorrlation signicatives lordre 12,
il pourrait tre possible, galement, de tester un modle ARM A (12; 12). On inclus pour cela les 24 retards, et la
constante, comme cela est fait ci-dessous, gauche,
Dependent Variable: D_VICTIMES
Backcast: 1993:01 1993:12
Variable
Coefficient
Std. Error
t -Statistic
Prob.
C
AR(1)
AR(3)
AR(4)
AR(5)
AR(7)
AR(8)
AR(11)
AR(12)
MA(3)
MA(4)
MA(5)
MA(7)
MA(8)
MA(11)
MA(12)
-305.0056
0.420150
-0.031261
0.275419
-0.113776
0.309327
-0.036742
-0.214746
-0.134458
0.058559
-0.368560
-0.063851
-0.428437
-0.225824
0.398335
-0.307490
99.72524
0.099681
0.109530
0.134000
0.118891
0.097592
0.101708
0.115885
0.109928
0.094135
0.115378
0.065686
0.090813
0.097233
0.111243
0.109088
-3.058459
4.214941
-0.285409
2.055372
-0.956980
3.169605
-0.361249
-1.853090
-1.223142
0.622072
-3.194377
-0.972065
-4.717804
-2.322506
3.580766
-2.818742
0.0030
0.0001
0.7761
0.0431
0.3415
0.0022
0.7189
0.0676
0.2249
0.5357
0.0020
0.3340
0.0000
0.0228
0.0006
0.0061
R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.511111
0.418285
702.1773
38951181
-748.6864
1.989013
Inverted AR Roots
.93+.17i
.16+.84i
-.65 -.39i
.99
.57 -.76i
-.36+.82i
Inverted MA Roots
.65 -.69i
-.21+.88i
-.67 -.17i
.62+.28i
.01 -.99i
-.85 -.48i
-387.5368
920.6434
16.09866
16.52879
5.506068
0.000000
.65+.69i
-.21 -.88i
-.67+.17i
.57+.76i
-.36 -.82i
-.99
Aprs limination, une une, des variables non signicatives, on aboutit aumodle suivant,
Dependent Variable: D_VICTIMES
Method: Least Squares
Date: 07/18/03 Time: 19:56
Sample(adjusted): 1993:12 2001:11
Included observations: 96 after adjusting endpoints
Convergence achieved after 10 iterations
Backcast: 1992:12 1993:11
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(1)
AR(4)
AR(7)
AR(11)
MA(4)
MA(7)
MA(11)
MA(12)
-361.4454
0.323792
0.221787
0.360634
-0.223918
-0.243286
-0.367712
0.290547
-0.464710
70.05417
0.083297
0.123863
0.095223
0.118132
0.126263
0.080979
0.127322
0.081240
-5.159513
3.887199
1.790575
3.787262
-1.895485
-1.926817
-4.540834
2.281979
-5.720233
0.0000
0.0002
0.0768
0.0003
0.0613
0.0573
0.0000
0.0249
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.432562
0.380384
723.5614
45548073
-763.5748
1.627925
Inverted AR Roots
.88 -.10i
.08 -.84i
-.77+.43i
.97
.52+.79i
-.39 -.86i
Inverted MA Roots
-379.4479
919.2082
16.09531
16.33572
8.290081
0.000000
.61 -.70i
-.24 -.83i
-.80
.74+.39i
-.00+.96i
-.87+.48i
.61+.70i
-.24+.83i
.52 -.79i
-.39+.86i
-.96
Nanmoins, on peut noter que les rsidus associs ne suivent pas un bruit blanc, comme le montre lautocorrlogramme
ci-dessus droite. Les graphiques associs sont prsents ci-dessous gauche. En liminant les variables non signicatives dans le modle prcdant (p-valeur suprieure 5%), on obtient la sortie ci-dessous droite,
Dependent Variable: D_VICTIMES
Method: Least Squares
Date: 07/18/03 Time: 19:57
Sample(adjusted): 1993:08 2001:11
Included observations: 100 after adjusting endpoints
Convergence achieved after 15 iterations
Backcast: 1992:08 1993:07
2000
1000
0
-1000
2000
-2000
1000
-3000
-1000
-2000
95
96
Residual
97
98
99
Actual
00
Coefficient
Std. Error
t- Statistic
Prob.
C
AR(1)
AR(7)
MA(7)
MA(12)
-285.5781
0.429447
0.212892
-0.240872
-0.656765
58.35439
0.077826
0.092498
0.075975
0.075974
-4.893858
5.518073
2.301586
-3.170413
-8.644549
0.0000
0.0000
0.0235
0.0020
0.0000
R- squared
Adjusted R - squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin- Watson stat
Inverted AR Roots
94
Variable
01
Inverted MA Roots
Fitted
175
0.499844
0.478785
678.9883
43797389
-791.3896
1.969953
.88
- .12+.77i
.99
.51+.84i
- .46 -.84i
-408.9800
940.4888
15.92779
16.05805
23.73516
0.000000
-.12 - .77i
.51 -.84i
-.46+.84i
- .94
Arthur CHARPENTIER
cest dire que (Y t) est modlisable par un processus ARM A (7; 12) : En eet, lhypothse de bruit blanc des rsidus
est valide,
2000
1000
0
-1000
-2000
2000
-3000
1000
0
-1000
-2000
94
95
96
97
Residual
98
Actual
99
00
01
Fitted
[A CONTINUER]
9.6
0.02
0.00
-0.02
-0.04
50
55
60
65
70
75
80
85
90
GNP_US
Compte tenu de la forme des autocorrlations, il est possible de tester un modle AR (3), i.e.
Dependent Variable: GNP_US
Method: Least Squares
Date: 05/28/03 Time: 09:43
Sample(adjusted): 1948:1 1991:1
Included observations: 173 after adjusting endpoints
Convergence achieved after 3 iterations
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
AR(1)
AR(2)
AR(3)
0.007682
0.350924
0.180937
-0.144305
0.001229
0.076268
0.079722
0.076504
6.251827
4.601216
2.269604
-1.886233
0.0000
0.0000
0.0245
0.0610
R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.176968
0.162358
0.009894
0.016545
555.0799
2.019838
Inverted AR Roots
.44+.29i
.44 -.29i
0.007748
0.010811
-6.370866
-6.297957
12.11276
0.000000
-.52
176
Arthur CHARPENTIER
En reprenant ce qui a t fait dans la partie (????) sur les modles AR (2), on peut noter que le polynme autorgressif
scrit
177