Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Cours de Series Temporelles

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 178

COURS DE SERIES TEMPORELLES

THEORIE ET APPLICATIONS

VOLUME 1
Introduction la thorie des processus en temps discret
Modles ARIMA et mthode Box & Jenkins

ARTHUR CHARPENTIER
arthur.charpentier@ensae.fr

DESS Actuariat & DESS Mathmatiques de la Dcision

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Contents
1 Introduction et notations
1.1 Approches temps/frquences : un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Analyse harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Modles autoregressifs et moyennes mobiles . . . . . . . . . . . . . . . . . . . . .
1.1.3 Lapproche temporelle : concept de corrlation srielle . . . . . . . . . . . . . . .
1.1.4 Lquivalence entre les deux approches temps/frquence . . . . . . . . . . . . . .
1.2 Les dveloppements rcents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Les modles ARM A, ARIM A et SARIM A : modles linaires . . . . . . . . . .
1.2.2 Modles ARCH - volatilit stochastique . . . . . . . . . . . . . . . . . . . . . . .
1.2.3 Les processus mmoire longue . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.4 Les processus multivaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.5 Exemple : histoire de la prvision des modles conomiques (macroconomiques )
1.2.6 Remarque sur les processus de comptage ou valeurs dans un espace dtats nis
1.2.7 Remarque sur les donnes hautes frquences . . . . . . . . . . . . . . . . . . . . .
1.3 Thorie des processus temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Stationnarit des processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Proprit de Markov en temps discret . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Objectifs de ltudes des sries temporelles . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Description et modlisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2 Prvision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.3 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5 Conseils bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

5
5
6
7
8
8
9
9
9
10
11
12
13
13
14
14
16
17
17
17
17
17

2 Proprits des processus univaris en temps discret


2.1 Rappels sur les martingales temps discret . . . . . . . . . . . . . .
2.2 Rappels sur les Chanes de Markov . . . . . . . . . . . . . . . . . . .
2.3 Notions de processus stationnaire et de processus non-stationnaire
2.4 Fonction dauto covariance et densit spectrale . . . . . . . . . . . . .
2.4.1 Autocovariance et autocorrlation . . . . . . . . . . . . . . .
2.4.2 Densit spectrale . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.3 Estimation de la fonction dautocorrlation . . . . . . . . . .
2.4.4 Estimation de la densit spectrale . . . . . . . . . . . . . . .
2.5 Lien entre processus en temps continu et en temps discret . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

19
19
19
20
21
21
21
23
24
25

3 Dsaisonnalisation par regression linaire


3.1 Prsentation des donnes . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Le modle linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Hypothses sur les erreurs . . . . . . . . . . . . . . . . . . . . .
3.2.2 Composante saisonnire du modles . . . . . . . . . . . . . . .
3.2.3 Composante tendancielle . . . . . . . . . . . . . . . . . . . . .
3.2.4 Modle trimestriel de Buys-Ballot (1847) . . . . . . . . . . . .
3.3 Estimateur des moindres carrs ordinaires (mco) . . . . . . . . . . . .
3.3.1 Solutions gnrales . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.2 Cas particulier : le modle trimestriel de Buys-Ballot . . . . . .
3.3.3 Gnralisation des formules de Buys-Ballot (tendance linaire)
3.4 Application au trac voyageur . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Srie agrge par trimestre . . . . . . . . . . . . . . . . . . . .
3.4.2 Analyse sur donnes mensuelles . . . . . . . . . . . . . . . . . .
3.5 Proprits statistiques des estimateurs . . . . . . . . . . . . . . . . . .
3.6 Prvision un horizon h . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1 Calcul de la prvision . . . . . . . . . . . . . . . . . . . . . . .
3.6.2 Application au trac SNCF . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

29
29
29
29
30
30
31
32
32
33
34
34
34
37
38
38
38
39

Sries temporelles : thorie et applications

Arthur CHARPENTIER

4 Dsaisonnalisation par la mthode des moyennes mobiles


4.1 Gnralits sur les moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Notion doprateur retard L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2 Les moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.3 Lespace des oprateurs moyenne-mobile . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Vecteurs propres associs une moyenne mobile . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Les sries absorbes : = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Absorbtion de la composante saisonnire . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.3 Les sries invariantes : = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.4 Transformation de suites gomtriques (rt ) . . . . . . . . . . . . . . . . . . . . . . .
p
4.2.5 Moyenne mobile dirence p = (I L) . . . . . . . . . . . . . . . . . . . . . . . .
p
4.2.6 Moyenne mobile dirence saisonnire p;s = (I Ls ) . . . . . . . . . . . . . . . .
4.2.7 Moyenne mobile impaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.8 Moyenne mobile paire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Notion de bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Transformation dun bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Les procdures X11 et X12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.1 Un algorithme simple de dsaisonnalisation . . . . . . . . . . . . . . . . . . . . . . .
4.4.2 Lalgorithme de base de la mthode X11 . . . . . . . . . . . . . . . . . . . . . . . .
4.4.3 Amlioration de la mthode : X11 ARIM A et X12 ARIM A . . . . . . . . . . .
4.4.4 Utilisation de la mthode X11 et comparaison avec les modles ARIM A saisonniers
4.4.5 Exemple simple inspir de la mthode X11 . . . . . . . . . . . . . . . . . . . . . . .
4.5 Description du modle T RAM O/SEAT S . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

40
40
40
41
45
45
46
46
46
47
48
49
49
50
51
51
52
52
52
54
54
55
56

5 La prvision par lissage exponentiel


5.1 Principe du lissage exponentiel simple . . . . . . . . . . . . . .
5.1.1 Mthode adaptative de mise jour (ordre 1) . . . . . .
5.1.2 Choix de la constante de lissage . . . . . . . . . . . . . .
5.1.3 Lien entre robustesse de la prvision et choix de . . .
5.1.4 Exemple dapplication . . . . . . . . . . . . . . . . . . .
5.2 Principe de lissage exponentiel double . . . . . . . . . . . . . .
5.2.1 Mthode adaptative de mise jour (ordre 1) . . . . . .
5.2.2 Application de la mthode de lissage exponentiel double
5.3 Lissage exponentiel multiple, ou gnralis . . . . . . . . . . . .
5.3.1 Mthode adaptative de mise jour (ordre 1) . . . . . .
5.4 Les mthodes de Holt-Winters (1960) . . . . . . . . . . . . . . .
5.4.1 Mthode non saisonnire . . . . . . . . . . . . . . . . . .
5.4.2 La mthode saisonnire additive . . . . . . . . . . . . .
5.5 Exemple de mise en pratique des mthodes de lissage . . . . . .
5.5.1 Prsentation des donnes . . . . . . . . . . . . . . . . .
5.5.2 Lissage linaire . . . . . . . . . . . . . . . . . . . . . .
5.5.3 Lissage exponentiel simple . . . . . . . . . . . . . . . . .
5.5.4 Lissage exponentiel double . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

57
57
58
58
58
59
61
61
62
64
66
66
66
67
67
68
69
70
70

6 Introduction aux modles linaires ARIM A


6.1 Rappels sur les espaces L 2 . . . . . . . . . . . . . . . . . . . .
6.1.1 Proprits topologiques . . . . . . . . . . . . . . . . .
6.1.2 Rappel sur les vecteurs et processus gaussiens . . . . .
6.1.3 Regression ane dans L 2 . . . . . . . . . . . . . . . .
6.1.4 La notion dinnovation . . . . . . . . . . . . . . . . . .
6.2 Polynmes doprateurs retard L et avance F . . . . . . . . .
6.2.1 Rappels sur les oprateurs retards . . . . . . . . . . .
6.2.2 Inversibilit des polynmes P (L) . . . . . . . . . . . .
6.3 Complments sur les sries stationnaires : les autocorrlations
6.3.1 Autocovariance et autocorrlation . . . . . . . . . . .
6.3.2 Autocorrlations partielles . . . . . . . . . . . . . . . .
6.3.3 Densit spectrale . . . . . . . . . . . . . . . . . . . . .
6.3.4 Autocorrlations inverses . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

73
73
73
73
74
75
77
77
77
79
79
80
82
83

.
.
.
.
.
.
.
.
.
.
.
.
.

Sries temporelles : thorie et applications

Arthur CHARPENTIER

6.3.5 Complment : autocorrlogrammes de fonctions dterministes


Les processus autorgressifs : AR (p) . . . . . . . . . . . . . . . . . .
6.4.1 Rcriture de la forme AR (p) . . . . . . . . . . . . . . . . . .
6.4.2 Proprits des autocorrlations - les quations de Yule-Walker
6.4.3 Le processus AR (1) . . . . . . . . . . . . . . . . . . . . . . .
6.4.4 Le processus AR (2) . . . . . . . . . . . . . . . . . . . . . . .
6.5 Les processus moyenne-mobile : M A (q) . . . . . . . . . . . . . . . .
6.5.1 Proprits des autocorrlations . . . . . . . . . . . . . . . . .
6.5.2 Le processus M A (1) . . . . . . . . . . . . . . . . . . . . . . .
6.5.3 Le processus M A (2) . . . . . . . . . . . . . . . . . . . . . . .
6.6 Les processus ARM A (p; q) . . . . . . . . . . . . . . . . . . . . . . .
6.6.1 Proprits des autocorrlations . . . . . . . . . . . . . . . . .
6.6.2 Densit spectrale des processus ARM A (p; q) . . . . . . . . .
6.6.3 Les processus ARM A (1; 1) . . . . . . . . . . . . . . . . . . .
6.7 Introduction aux modles linaires non-stationnaires . . . . . . . . .
6.8 Les processus ARIM A (p; d; q) . . . . . . . . . . . . . . . . . . . . .
6.8.1 Processus ARIM A et formes AR ou M A . . . . . . . . . . .
6.9 Les modles SARIM A . . . . . . . . . . . . . . . . . . . . . . . . . .
6.10 Thorme de Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.11 Thorie spectrale et processus ARIM A . . . . . . . . . . . . . . . .
6.11.1 Thorie spectrale et notion de ltre . . . . . . . . . . . . . . .
6.11.2 Le spectre dun processus ARM A . . . . . . . . . . . . . . .
6.11.3 Estimation de la densit spectrale dun processus . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

85
86
86
87
89
92
94
94
96
97
99
99
100
100
101
102
104
104
107
108
108
109
111

7 Estimation des modles ARIM A : Box-Jenkins


7.1 Estimation du paramtre dintgration d . . . . . . . . . . . . . . . . . . . . . . .
7.1.1 Approche empirique par lautocorrlogramme . . . . . . . . . . . . . . . .
7.1.2 Tests de racine unit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.3 Tests de racines unitaires saisonnires . . . . . . . . . . . . . . . . . . . .
7.1.4 Complment sur la notion de sur-direntiation . . . . . . . . . . . . . . .
7.2 Estimation des ordres p et q dun modle ARM A (p; q) . . . . . . . . . . . . . . .
7.2.1 Problmes dunicit de la reprsentation ARM A . . . . . . . . . . . . . .
7.2.2 Comportement asymptotique des moments empiriques . . . . . . . . . . .
7.2.3 Mthode pratique destimation des ordres p et q . . . . . . . . . . . . . .
7.2.4 Cas dun processus M A (q) . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2.5 Cas dun processus ARM A (p; q) . . . . . . . . . . . . . . . . . . . . . . .
7.2.6 Proprit des estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Test de bruit blanc et de stationnarit . . . . . . . . . . . . . . . . . . . . . . . .
7.3.1 Analyse des fonctions dautocorrlation . . . . . . . . . . . . . . . . . . .
7.3.2 Statistique de Box-Pierce, ou test de portmanteau . . . . . . . . . . . .
7.3.3 Complments : les tests de normalit . . . . . . . . . . . . . . . . . . . . .
7.3.4 Complment : Test de rupture et de changement de tendance . . . . . . .
7.4 Estimation des paramtres dun modle ARM A (p; q) . . . . . . . . . . . . . . .
7.4.1 Estimation pour les modles AR (p) par la m thode des moindres carrs
7.4.2 Vraissemblance dun processus ARM A (p; q) . . . . . . . . . . . . . . . . .
7.4.3 Rsolution du programme doptimisation . . . . . . . . . . . . . . . . . .
7.4.4 Tests statistiques de validation du modle . . . . . . . . . . . . . . . . . .
7.5 Choix dun modle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5.1 Critre de pouvoir prdicitf . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5.2 Critre dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.6 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.6.1 Identication du modle : recherche des paramtres d, p et q . . . . . . .
7.6.2 Estimation du modle ARIM A . . . . . . . . . . . . . . . . . . . . . . . .
7.6.3 Vrication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

114
114
114
115
121
122
123
124
125
125
126
126
129
129
129
130
130
132
134
134
134
135
139
139
139
140
140
141
142
143

6.4

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

Sries temporelles : thorie et applications

Arthur CHARPENTIER

8 Prvisions laide des modles ARIM A : Box-Jenkins


8.1 Prvisions laide dun modle AR (p) . . . . . . . . . . . . . . . . .
8.2 Prvisions laide dun modle M A (q) . . . . . . . . . . . . . . . .
8.2.1 Utilisation de lcriture AR (1) du processus M A (q) . . . .
8.2.2 Utilisation de la formule de mise jour des rsultats . . . . .
8.3 Prvisions laide dun modle ARM A (p; q) . . . . . . . . . . . . .
8.3.1 Utilisation de la forme AR (1) pu processus ARM A (p; q) . .
8.3.2 Utilisation de la forme M A (1) pu processus ARM A (p; q) et
8.4 Prvisions dans le cas dun processus ARIM A (p; d; q) . . . . . . . .
8.4.1 Utilisation de lapproximation AR . . . . . . . . . . . . . . .
8.4.2 Utilisation de lapproximation M A . . . . . . . . . . . . . . .
8.5 Intervalle de conance de la prvision . . . . . . . . . . . . . . . . .
8.6 Prvision pour certains processus AR et M A . . . . . . . . . . . . .
8.6.1 Prvision pour un processus AR (1) . . . . . . . . . . . . . .
8.6.2 Prvision pour un processus M A (1) . . . . . . . . . . . . . .
8.6.3 Prvision pour un processus ARIM A (1; 1; 0) . . . . . . . . .
8.7 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.7.1 Example de prvision : cas dcole . . . . . . . . . . . . . . .
8.7.2 Exemple dapplication : cas pratique . . . . . . . . . . . . . .

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
des formules de
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

9 Applications de la mthode de Box & Jenkins


9.1 Application un portefeuille dassurance-vie . . . . . . . . . . . . . . .
9.1.1 Modlisation de la srie . . . . . . . . . . . . . . . . . . . . . .
9.1.2 Estimation de modles ARM A . . . . . . . . . . . . . . . . . .
9.2 Application de la srie des taux dintrt 3 mois . . . . . . . . . . .
9.2.1 Modlisation de la srie . . . . . . . . . . . . . . . . . . . . . .
9.2.2 Estimation des paramtres dune modlisation ARIM A (1; 1; 1)
9.2.3 Estimation des paramtres dune modlisation ARIM A (2; 1; 2)
9.2.4 Estimation des paramtres dune modlisation ARIM A (4; 1; 4)
9.2.5 Estimation des paramtres dune modlisation ARIM A (8; 1; 2)
9.2.6 Estimation des paramtres dune modlisation ARIM A (8; 1; 4)
9.2.7 Choix du modle . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3 Application des donnes simules . . . . . . . . . . . . . . . . . . . .
9.4 Modlisation du trac autoroutier . . . . . . . . . . . . . . . . . . . .
9.4.1 Modlisation du trac sur lautoroute A7 . . . . . . . . . . . .
9.4.2 Modlisation du trac sur lautoroute A13 . . . . . . . . . . .
9.5 Modlisation du nombre de victimes sur les routes . . . . . . . . . . .
9.6 Modlisation du taux de croissance du P IB amricain . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

. . .
. . .
. . .
. . .
. . .
. . .
mise
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

. . .
. . .
. . .
. . .
. . .
. . .
jour
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

145
145
145
146
146
146
147
147
147
148
148
149
149
149
150
152
153
153
155

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

156
156
156
157
161
162
162
163
164
165
165
166
166
170
170
171
173
176

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La statistique est la premire des sciences inexactes.


Edmond et Jules de Goncourt, Journal

Introduction et notations

Ltude des sries temporelles, ou sries chronologiques, correspond lanalyse statistique dobservations rgulirement
espaces dans le temps. Elles ont t utilises en astronomie (on the periodicity of sunspots, 1906), en mtorologie
(time-seires regression of sea level on weather , 1968), en thorie du signal (Noise in FM receivers, 1963), en biologie
(the autocorrelation curves of schizophrenic brain waves and the power spectrum , 1960), en conomie (time-series
analysis of imports, exports and other economic variables, 1971)...etc.

1.1

Approches temps/frquences : un peu dhistoire

De faon gnrale, quand on parle de sries stationnaires, on a en tte une reprsentation de la forme Xt , o t 2 Z,
reprsentant les observations (potentielles) du processus, dont on peut dnir un ensemble dautocovariance (t; s) =
E ([Xt ] [Xs ]) qui ne dpend que la distance entre t et s, (t; s) = (t + h; s + h) pour tout h 2 Z (notion
faible de stationnarit). On demande gnralement cette autocovariance (t; s) de tendre vers 0 quand la dirence
entre t et s tend vers linni : la covariance entre des lments trs loigns dans la srie tend vers 0.
Cette approche, base sur lutilisation des corrlations, correspond lanalyse de type temporelle : elle consiste
tudier les corrlations croises de fonctions de la srie (Xt). Ces mthodes sont gnralement paramtriques de
type moyenne-mobiles (moving average M A) ou autorgressives (AR) - voire les deux (ARM A). Toutes ces mthodes
consistants estimer des paramtres peuvent gnralement tre vus comme des gnralisations de la rgression linaire.
Lautre approche galement utilise est celle base sur ltude des frquences. Cette vision est une gnralisation
des mthodes utilises en analyse de Fourier. Lide est ici dapproximer une fonction analytique par une somme
pondre de fonctions sinus ou cosinus.
Historiquement, ce sont les astonomes qui les premiers ont travaill sur des sries chronologiques. La reproduction
ci-dessous est tir dun manuscrit du X e sicle, reprsentant linclinaison des orbites des plantes en fonction du temps.
Cest en particulier grce ce genre de donnes que Kepler a pu noncer ses lois sur le mouvement des plantes.

Ces visualisations graphiques ont permis, grce aux dirents outils mathmatiques mis en place au XV III e et XIX e
sicles, de mettre en place les premires techniques dtude des sries chronologiques1 , parmi lesquelles, lanalyse
harmonique.
1 En fait, comme le note Bernstein dans Against the Gods (the remarkable story of risk), les grecs ou les hbreux ont observs des
phnomnes cycliques (par exemple), mais ils nont jamais pens faire de la prvision. Il a fallu attendre la Renaissance pour que lave nir
ne soit plus quune question de chance ou un fruit du hasard.Y compris au XV IIIme sicle, prvoir des phnomne futurs pouvait faire
croire une tentative de rivaliser avec les dieux : Halley remarqua que la mme com te fut aperue en 1531, en 1607 et en 1682 (cette
comte avait t observe dail leurs depuis 240 avant J.C.), et il prvoit quon la reverra en 1758 (ce fut eectivement le cas, au grand
moi de toute lEurope, puisque tous les 76 ans, la comte, dite de Halley, arrive en vue de la terre).

Sries temporelles : thorie et applications

1.1.1

Arthur CHARPENTIER

Analyse harmonique

Les astronomes ont t les premiers utiliser lanalyse de Fourier pour des sries chronologiques. Leur but tait de
dtecter des saisonalits caches au sein de leurs donnes. Ainsi, Lagrange a utilis ces mthodes pour dtecter de
la priodicit cache en 1772 et en 1778. Un demi-sicle plus tard, en 1847, Buys et Ballot, dans Les changements
priodiques de tempratures ont propos des mthodes pour tudier la priodicit de donnes astronomiques. Toutefois,
il a fallu attendre 1889 pour que Sir Arthur Shuster introduise le priodogramme, qui constitue la base des mthodes
spectrales danalyse de sries chronologiques.
Lide est la suivante : on recherche un modle sous-jacent de la forme
X
X

Yt =
j cos [! j t j ] + "t =
j cos (! j t) + j sin (! j t) + "t ;
o ("t ) est une suite de variables alatoires indpendantes identiquement distribues, qui correspondront un bruit
blanc (cette notion serait
q longuement dveloppe par la suite).
Le facteur j (ou 2j + 2j ) correspond lamplitude de la j-me composante priodique, et indique le poids de
cette composante au sein de la somme.

Exemple 1 Considrons la srie temporelle ci-dessous gauche. Une fois enlev le bruit, nous obtenons une srie
qui peut tre dcrite comme une somme pondre de fonctions sinusodales

En loccurence, la srie de gauche peut tre vue comme la somme dun bruit et de 4 fonctions sinusodales (damplitudes
j direntes).
par

A partir dun chantillon Y 0 ; :::; Y T 1 , et en considrant les frquences !j = 2j =T , le priodogramme est dni
I (!j ) =

2 X
2 T

2 X
Y t cos (! j ) +
Y t sin (! j )
=
a2 (!j ) + b 2 (!j ) :
T
2

Il est alors possible de montrer que 2I (!j ) =T est un estimateur consistant de 2j (au sens o cet estimateur converge
en probabilit quand le nombre dobservations augmente). Cette convergence t longuement tudie par Yule en
1927.
Exemple 2 En considrant la srie chronologique du nombre de taches solaires

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Wolf a obtenu le priodogramme reprsent ci-dessous ( gauche en frquence !, droite en priode f = 2=!),

et a ainsi pu montrer quil y avait une priodicit de 11 annes dans le cycle solaire. Ce rsultat a t retrouv par la
suite avec davantage de donnes, et un second cycle de lordre de 160 annes a galement t dtect.
En 1924, Whittaker et Robinson ont utilis cette thorie sur la brillance de ltoile T-Ursa Major, observe sur 600
jours, et ont montr que la brillance pouvait tre modlise (presque parfaitement ) laide de 2 fonctions harmoniques,
de priodes respectives 24 et 29 jours.
Si cette thorie a donn de trs bons rsultats en astronomie, son application en conomie a conduit des rsultats
nettement moins concluants. En 1921 et 1922, Beveridge a utilis cette thorie sur le prix du bl (wheat prices and
rainfall in western europe). La srie prsentait tellement de pics quau moins 20 priodicits taient possibles... et
plus encore si lon commenait prendre en compte de facteurs conomiques ou mtorologiques.
Si les phnomnes astronomiques permettent dutiliser cette thorie, cest parce que des cycles parfaitement rguliers
sont observs. Toutefois, cette mtho de sest rvle plus complique mettre en oeuvre en sciences humaines.
1.1.2

Modles autoregressifs et moyennes mobiles

Deux articles en 1927 ont ouvert une autre voie : larticle de Yule (on the method of investigating periodicities in
disturbated series with sepcial reference to Wolfers sunspot numbers ) et celui de Slutsky (the summation of random
causes as the source of cyclical processes ).
Yule a introduit dans la littrature les modles autorgressifs, en considrant des modles de la forme
Yt = Y t1 + Y t2 :
Etant donnes deux valeurs initiales, cette suite prsente un comportement saisonnier, fonction des paramtres et
. Yule remarque quen fait, le comportement dpend des racines (complexes) de lquation z2 z = 0, et plus
particulirement de leur position par rapport au disque unit. Si leur module est infrieur 1, alors on observe un
comportement sinusodal amorti. En fait, la forme gnrale des solutions sera
Y t = At cos (!t ) ; lorsque 0 < < 1:
Le modle autorgressif propos par Yule est le suivant
Yt = 1 Yt 1 + 2 Y t2 + "t ;

(1)

o (" t) correspond un bruit blanc : un bruit blanc correspond un processus indpendant (ou, plus faiblement,
non corrl avec son pass). Nanmoins, des hypothses plus fortes doivent parfois tre faites : on veut que ce bruit
soit galement indpendant du pass de la variable Y t , i.e. "t indpendant de Y th pour tout h 1, et on parle alors
dinnovation du processus (Y t ) :
Exemple 3 La srie dne par Y t = 1:8Y t1 0:8Y t2 , reprsente ci dessous gauche, peut tre crite galement
Y t = 2 0:9t cos (4t 1=2), t 2 Z,

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Slutsky a introduit les moyennes mobiles la mme anne que Yule a introduit les processus autorgressifs... mais
son article, crit en 1927 en russe na t traduit quen 1937 en anglais. Pour cela, il a utilis des nombres gnrs par
la lotterie ocielle, et a russit gnrer une srie dcrivant le cycle conomique en Angleterre, de 1855 1877. La
forme gnrale tait la suivante,
Yt = 0 "t + 1 "t1 + ::: + q "tq ;
(2)
o ("t ) est un bruit blanc, correspondant ces nombres gnrs par la lotterie ocielle : on obtient des variables
indpendantes entre elles (cf tables de nombres alatoires), mais surtout indpendantes du cycle conomique. Cette
criture a suggr dlargir la relation (1) sous une forme proche de (2), savoir
0 Y t + 1 Y t1 + ::: + p Y tp = "t :
Les processus introduits par Yule deviendront les processus AR (p) et ceux introduits par Slutsky les processus M A (q).
Lanalogie entre les deux processus sera mme pousse plus loin lorsquil sera montr que les processus AR (p) et M A (q)
sont respectivement des processus M A (1) et AR (1), sous certaines conditions.
1.1.3

Lapproche temporelle : concept de corrlation srielle

Si lapproche spectrale repose sur lutilisation du spectre (ou du priodogramme), lapproche temporelle repose sur
lautocorrlogramme, ou plus gnralement sur lutilisation de la corrlation srielle. Poynting est le premier a introduire cette ide, en 1884, en tudiant la relation entre le mouvement du prix du bl, et les importations de coton et
de soie. Le coecient de corrlation srielle a t dnit par Hooker en 1901, dans une tude sur le taux de mariage
en Angleterre, et lindice du commerce. Etant donnes deux sries temporelles, (Xt) et (Y t), la covariance srielle
est dnie par ck (X; Y ) = cov (Xt ; Y t+k ) et la corrlation srielle sera alors rk (X; Y ) = ck (X; Y ) =c0 (X; Y ).
Le coecient dautocorrlation est alors obtenu en considrant k = corr (Xt ; Xt+k ) = rk (X; X). Les annes 30
ont alors vu lclosion des rsultats de base dans le domaine des sries chronologiques, sous limpulsion de Khintchine,
Cramer, Wold, Kolmogorov, Wiener...etc. Ces auteurs ont dvelopp une thorie des sries temporelles, en considrant
quune srie chronologique est une ralisation dun processus alatoire.
1.1.4

Lquivalence entre les deux approches temps/frquence

Dans un premier temps, lanalyse harmonique a t gnralise pour passer dune somme de Fourier une intgrale
de Fourier
Z
Yt =
[cos (!t) dA (!) + sin (!t) dB (!)] :
0

Cette simple ide de lissage du priodogramme a permis de contourner les problmes quavait pu observer Beveridge
lorsquil cherchait des priodicits caches dans des disciplines autres que lastronomie.
La synthse entre ces deux branches (la premire travaillant en temps, avec des autocorrlations, et la seconde travaillant sur le spectre de la srie) a t faite dans les annes 30, en parallle aux Etats-Unis par Norbert Wiener (generalised harmonic analysis , 1930) et en Union Sovitique par Khintchine (korrelationstheorie der stationaren stochastichen prozesse, 1934). Leur rsultat est de mettre en avant une relation bijective entre la fonction dautocovariance
dun processus stationnaire, et sa densit spectrale :
Z
+1
1 X
g (!) =
(h) cos (!h) ou (h) =
cos (!h) g (!) d!, o (h) = cov (Xt ; Xth ) :
2
0
h= 1

Et si lanalogie entre autocorrlogramme et densit spectrale existe dun point de vue thorique, il est possible de mettre
en avant le mme genre de relation entre les autocorrlations empiriques et le priodogramme empirique. Les graphiques
ci-dessous reprsentent les variations de lindice CAC 40 en donnes mensuelles, gauche, et le priodogramme associ
en frquence (!) droite,
Variation (%) du CAC 40 - index return - net - mensuel
25%
20%
15%
10%
5%
0%
-5%
-10%
-15%
-20%
11/08/87 23/12/88 07/05/90 19/09/91 31/01/93 15/06/94 28/10/95 11/03/97 24/07/98 06/12/99 19/04/01

/4

/2

3/4

Sries temporelles : thorie et applications

1.2

Arthur CHARPENTIER

Les dveloppements rcents

Ltude des sries temporelles semble avoir atteint sa maturit au cours des annes 70 o des dveloppements signicatifs sont apparus. En 1965, Cooley et Tukey ont beaucoup aid ltude spectrale des sries grce leur article an
algorithm for the machine calculation of complex Fourier series, introduisant la Fast Fourier Transform (FFT ).
Cet algorithme a permis de calculer rapidement des priodogrammes. A la mme poque, en 1970, Box et Jenkins
ont publi leur ouvrage Time series analysis, forecasting and control , montrant que ltude des sries temporelles
laide de processus de type ARM A (obtenus en associant les critures (1) et (2) des processus AR et M A) pouvait
sappliquer de nombreux domaines, et pouvait tre facilement implmente informatiquement2 .
1.2.1

Les modles ARM A, ARIM A et SARIM A : modles linaires

Les modles ARM A sont un mlange des modles (1) et (2) proposs par Yule et Slutsky. Un processus (Xt ) est un
processus ARM A (p; q) sil existe un bruit blanc ("t ) (cest dire un processus stationnaire tel que " t et "t k soient
indpendants, pour tout k, pour tout t) tel que
Xt = 1 Xt1 + ::: + p Xtp + " t + 1 "t 1 + ::: + q" tq ; pour tout t:
Sous certaines conditions, ces processus sont stationnaires. Comme nous le verrons par la suite, ces processus peuvent
scrire sous la forme
(L) Xt = (L) "t ; o (L) = I 1 L ::: p Lp et (L) = I + 1 L + ::: + qLq ;
L reprsentant loprateur retard, au sens o LXt = Xt 1 , et avec la convention Lp = L Lp1 , soit Lp Xt = Xtp
: la srie (Y t) telle que Y t = Lp Xt est alors la srie (Xt) retarde de p priodes.
Paralllement, on dira quun processus non-stationnaire est intgr dordre 1, si en le direnciant une fois, on
obtient un processus stationnaire : (Xt ) (non-stationnaire) sera dit intgr dordre 1 si le processus (Y t ) dnit
Y t = Xt = Xt Xt1 = (1 L) Xt est stationnaire. On dira, par extension, que (Xt ) est intgr dordre d si (Xt ) est
d1
d
non-stationnaire, ..., (Y t ) o Yt = (1 L)
Xt, est non-stationnaire, et (Zt) o Zt = (1 L) Xt , est stationnaire.
On appelera alors processus ARIM A (p; d; q) un processus (Xt) pouvant se mettre sous la forme
d

(L) Xt = (L) (1 L) Xt = (L) "t ; o ("t ) est un bruit blanc.


Pour les donnes relles, on notera que d = 1, 2 ou 3 (au maximum ). Cela signie que (Y t ) dnit comme dirence
dordre d du processus (Xt ), soit Yt = (1 L)d Xt , suit un processus ARM A (p; q) 3 .
On parlera dailleurs de prsence de racine unit : 1 est alors racine du polynme autorgressif (z). Par
gnralisation, on peut considrer le cas o exp (2i=s) est racine du polynme autorgressif : cest dire que
(L) = (1 Ls) (L). On dira alors que lon est prsence dune racine unit saisonnire, qui engendreront les
modles SARIM A.
Les modles intgrs sont trs prsents dans les sries conomiques, par exemple les sries dindices boursiers,
dindice de production, dindice de prix.... Les modles SARIM A sont galement trs prsents ds lors que les sries
sont trs saisonnires (avec une forte pridicit trimestrielle, annuelle...etc).
Remarque 1 Parmi les transformations usuel les des variables, la transformation par (1 L) est parmi les plus
utilises : on ne considre alors plus la srie brute (Xt ) mais la variation (brute) Yt = Xt Xt 1 . Dans le cas o Xt
est un prix (par exemple un indice boursier, CAC40 ou SP 500), on considre galement souvent la variable obtenue
comme dirence des logarithmes des prix Zt = log Xt log Xt1 , qui est alors le rendement ou le taux de croissance
(return en anglais).
1.2.2

Modles ARC H - volatilit stochastique

Dans les annes 80, des dveloppements ont t apports dans ltude de la non-linarit de certaines sries, et
sur leur modlisation. En 1982, Engle a introduit la classe des modles ARCH (autorgressifs conditionnellement
htroscdastiques 4 ). Ces modles ont t introduits pour palier une observation empirique qui ntait pas prise
2 Sur les mthodes de prvision en conomie, il peut tre intressant de se reporter The past, present and future of macroeconomic
forecasting de Francis Diebold (1997).
3 Cec i nest quune notation : comme nous le verrons par la suite, les processus ARIMA sont un peu plus compliqus que les processus
ARMA puisquil faut prendre en compte des conditions initiales : (Yt) ne suit quasymptotiquement un processus
ARMA (p; q).

4 Pour rappel, un modle conomtrique est dit homoscdatique si la variance des erreurs (centres) E "2 est constante - quelque soit
t
la priode dtude.
Dans le cas contraire, on parlera dhtroscdasticit. Les modles sont ici conditionne llement htroscdatistique car

E " 2t j" t1 dpend de t.

Sries temporelles : thorie et applications

Arthur CHARPENTIER

en compte par les modles : la volatilit conditionelle dune srie (Y t) na aucune raison dtre constante. Dans les
modles AR (1), la variance conditionnelle de Xt sachant Xt 1 est constante : V (XtjXt1 ) = 2 o V ("t ) = 2
(notion dhomoscdasticit). Engle a cherch un modle dans
variance
conditionnelle de Xt sachant Xt1
lequel la
2
2
dpendrait de Xt 1 , et plus particulirement, V (Xt jXt 1 ) = + Xt1
. Pour cela, il a considr les modles de
la forme
p
2
Xt = "t h t ; o h t = 0 + 1 Xt1
:
Cette classe de modle, appele ARCH (1) a t gnralise sous la forme ARCH (p),
p
2
2
Xt = "t h t ; o ht = 0 + 1 Xt1
+ ::: + p Xt
p:

Cette forme pour h t a permis lanalogie entre les modles AR et les modles ARC H. De plus, cette classe de modles
ARC H a t gnralise de la mme faon que les ARM A gnralisent les AR, en considrant des fonctions h t de la
forme
p
q
X
X
2
ht = 0 +
iXt
+
j " tj ;
i
i=1

j=1

gnrant ainsi les modles GARCH.

Exemple 4 Le graphique ci-dessous gauche correspond des taux dintert (Xt), et droite, la variation de ces
taux dintrt Y t = Xt Xt 1 ,
20

16

12

-2

-4

0
60

65

70

75

80

85

90

-6
60

95

65

70

75

80

85

90

95

Les longues priodes de fortes volatilit (volatility clustering) sont une des caractristiques des modles ARC H, et cest,
entre autres, pour cela que les modles ARCH ou GARC H sont normment utiliss dans les modles nanciers.
1.2.3

Les processus mmoire longue

Dautres avances ont t faites sur la mmoire longue de certaines sries. Les processus stationnaires de type AR
ont un autocorrlogramme qui converge vers 0 de faon exponentielle ( (h) = h). Les processus mmoire longue
seront caractriss par une dcroissance de leur autocorrlogramme suivant une fonction puissance ( (h) = h ).
Exemple 5 Par exemple, le graphique ci-dessous gauche correspond au niveau minimum du Nil entre 622 et 1284,
15
14
13
12
11
10
9

700

800

900

1000

1100

1200

NILE

Bien que la srie soit stationnaire, les autocorrlations (h) = cov (Xt ; Xt+h ) sont encore signicativement non-nulles
aprs 60 ans (graphique de droite). Ce type de comportement sera appel mmoire longue.

10

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Plusieurs classes de processus appartiennent cette srie,


(i) les processus self-similaires, introduits par Kolmogorov en 1958 et dvelopps par Mandelbrot (1965) : ces
processus sont caractriss par lexistence dune constante H (dite de self-similarit) telle que, pour tout constante c,
la distribution de Y ct soit gale celle de cH Y t: On retrouve dans cette classe les processus de Levy.
(ii) les processus F ARM A, gnralisation des modles ARIM A dcrits par Box et Jenkins. Ces modles ARIM A
taient obtenus en considrant que les dirences premires d Xt (o Xt = Xt Xt1 , 2 Xt = (Xt )...etc)
suivent un processus ARM A (p; q). On parle alors de processus ARM A intgr. Les processus F ARIM A ont t
obtenus en considrant, formellement, les cas o d nest pas entier, compris entre 1=2 et 1=2: Cette gnralisation,
propose par Granger en 1980, repose sur la manipulation des sries doprateurs retard (L), et sur le dveloppement
d
en srie entire de (1 L) .
(iii) laggrgation de processus AR (1) a galement t propose par Granger en 1980 et cette classe de processus
a t tudie par Gourieroux et Gonalves en 1988. On considre des processus vriant, pour tout t 0,
Xi;t = iXi;t1 + Ci" t + i; t pour i = 1; 2; :::

1.2.4

Les processus multivaris

Enn, dautres dveloppements ont t fait dans ltude des processus multivaris. Si lon se place uniquement en
dimension 2, on comprend que la gnralisation des processus univaris une dimension suprieur est relativement
complique.
(i) les modles V AR - vecteurs autorgressifs - sont une gnralisation des modles AR en dimension n. Si lon
considre par exemple un couple Zt de deux variables (Xt; Y t ) que lon souhaite expliquer par leur pass, on obtient
un modle de la forme

Xt
1 1
Xt1
"t
=
+
, soit Zt = A1 Zt1 + Ut ;
Yt
1 1
Yt 1
t

o la matrice At est compose des coecients autoregressifs usuels (1 et 1 ) mais aussi des notions relatives la
notion de causalit, Xt dpendant de Y t1 , et Yt dpendant de Xt1 .
(ii) la cointgration est une notion relative au comportement des plusieurs variables intgres, et la relation qui
les unit long terme : on considre (Xt) et (Yt ) non-stationnaires, et intgres dordre d, satisfaisant une relation du
type
Xt = + Yt + " t:
Plus formellement, si le vecteur (Zt ) est intgr dordre d, on dira que les sries Zt1 ; Zt2 ; :::; Ztn sont cointgres si et
seulement sil existe une relation linaire non-nulle des composantes qui soient intgres dordre strictement infrieur
d
(iii) le modle ltre de Kalman. Ce mo dle est un cas particulier dune classe plus large de modles, les modles
espace dtats, de la forme

Zt+1 = At Zt + "t
Y t = C tZt + t ;

o (Y t ) est le vecteur que lon tudie, (Z t) est un vecteur alatoire (=tat) inconnu, At et C t sont des matrices
dterministes, et ("t ; t) est un bruit blanc normal. Lide est destimer rcursivement Zt en fonction de Y 0 ; :::; Y t:
Exemple 6 Considrons un entrepreneur amricain, investissant dans dirents pays. An de faire de la prvision
de ses rsultats,
il est ncessaire de prvoir les taux de change des direntes devises : cette prvision doit se faire sur

U SD=F RF
U SD=DM K
le couple rt
; rt
et non pas dvise par devise.
12

4.0
3.5

10

3.0

8
2.5

2.0

1.5

1.0
DMK

FRF

11

Sries temporelles : thorie et applications

Arthur CHARPENTIER

En eet, deux analyses faites en parallle, et indpendement, peuvent aboutir des rsultats impossibles : il serait
incohrent, dans lexemple ci-dessus, de prvoir que le taux de change du Franc va augmenter, et que le taux de change
du Deutsche Mark va baisser.
1.2.5

Exemple : histoire de la prvision des mo dles conomiques (macroconomiques )

La thorie conomique inspire de Keynes reposait sur lutilisation de prvisions conditionnelles : sous certaines
hypothses, les prvisions dune ou plusieurs variables taient faites conditionellement des comportements, au sein
de modles structurels. Plus particulirement, ds 1936, Keynes proposait par exemple de lier la consommation C t au
revenu disponible Rt , sous la forme Ct = Rt + : une prvision de Rt permettait de prvoir Ct . Brown avait propos
un modle lgrement dirent ds 1952, en intgrant le fait que les individus ont des habitudes de consommation,
entrainant une inertie importante : Ct = Rt + + C t1 . Ces prvisions structurelles ont toutefois cess de faire
rfrence partir des annes 70.
Les prvisions non-structurelles ont alors pu prendre en compte les dirents cycles observs en conomie (1977 :
Business cycle modeling without pretending to have too much a priori theory de Sargent et Sims) : des prvisions de
sries conomiques peuvent se faire sans ncessairement avoir de modle structurel derrire. Les modles utiliss sont
toutefois relativement anciens puisquils sont inspirs des modles de Slutsky et Yule, tous deux datant de 1927, bass
sur la notion de modle autorgressif. La publication de louvrage de Box et Jenkins en 1970 permettra une avance
rapide avec lutilisation des modles ARM A.
Toutefois, le lacune de la thorie de Box et Jenkins est quelle ne prend pas en compte des eets croiss de
dpendance entre variables. Pour eectuer de la prvision dun ensemble de variables, a priori lies, il convient
deectuer une prvision globale : la thorie des modles V AR (modles autorgressifs vectoriels ) a t introduite
en conomie sous limpulsion de Sims en 1980, qui a travaill sur des systmes dquations o toutes les variables sont
alors endognes (contrairement aux quations structurelles de Keynes). Cette thorie avait toutefois t tudie ds
les annes 70 par Granger par exemple, qui avait travaill sur la notion simple de causalit entre variables.
Toutefois, la prsence dun certain nombre de variables non-stationnaires a pos un certain nombre de problmes
: Granger a alors introduit la notion de cointgration en 1981 : cette notion dit que deux variables X et Y peuvent
suivre une tendance stochastique, mais la dirence (ou le spread ) X Y peut tre stationnaire. Cette notion sera
lorigine des modles tendance commune, permettant de travailler sur des systmes dquations o certaines variables
sont cointgres. En particulier, ds 1978, Hall se posait la question de savoir si la consommation par habitant ntait
pas une martingale, ce qui conduirait crire Ct = Ct 1 + "t o "t est un ala. Nelson et Plosser ont dailleurs not,
en 1982 quun grand nombre de sries macroconomiques taient caractrises par la prsence dune racine unitaire
(cest dire une criture de la forme Ct = C t1 + Xt ). Et cest nallement en 1987 que Campbell a propos un
modle V AR sur la consommation C et le revenu R, puis un modle V AR intgrant dans chaque quation un modle
correction derreur.
Une autre piste qui a t explore la mme poque est celle des modles non-linaires. Cette voie a t ouverte
ds 1982 par Engle, qui introduisi de la dynamique dans la volatilit, laide des modles ARCH. Ces mo dles ont
t trs utiliss en nance, mais aussi pour des modles dination.
Parmi des amliorations apportes dans les annes 90, on peut noter les modles avec cycles, avec rupture de
tendance, changement de rgime...etc. La thorie des modles changement de rgime repose sur lide que derrire
les variables observes existent des variables caches, non observes.
Pour rsumer lhistoire des applications conomiques des sries temporelles, on peut retenir le schma suivant
- annes 20 : macroconomie descriptive : description des cycles (courts = Slutsky, longs = Kondratie )
- annes 50 : dbut de la thorie des sries temporelles, avec comme objectif principal, la prvision
- annes 60 : application en macroconomie, avec des modles structurels : une vingtaine de variables, et 200
observations (maximum )
- annes 70 : thorie de Box et Jenkins, sappuyant sur un logiciel (modle linaire ) : on considre les variables
une une, sur 200 observations (dbut, la mme poque, de la thorie des panels en microconomie : 3000 individus
suivis sur 3 ou 4 priodes)
- annes 80 : en marcronomie, modles multivaris (causalit, cointgration, codpendance). Dbut de lutilisation
des modles de sries temporelles sur donnes nancires : beaucoup de variables, 2000 observations. Dbut des modles
temps continu.
- annes 90 : donnes hautes frquences sur les marchs nanciers (de 4000 plus de 2000000 dobservations).
Des complments peuvent se trouver dans larticle de Chris Chateld (1997) intitul Forecasting in the 1990s .

12

Sries temporelles : thorie et applications

1.2.6

Arthur CHARPENTIER

Remarque sur les processus de comptage ou valeurs dans un espace dtats nis

A retenir 1 Les modles que nous allons tudier dans ce cours sont bass sont bass sur ltude de processus (Xt ) o
les variables observes sur supposes valeurs relles : X1 ; X2 ; :::; Xt; :::.2 R. On observera ainsi des prix,
des variations de prix, des taux, des montants...etc. Des nombres de voyageurs seront, a la rigueur, considrs comme
une variable relle, mais deux cas seront exclus de notre tude, a priori :
(i) les processus de comptage (ex : nombre daccident pour un conducteur lanne t)
(ii) les processus valeurs dans un espace dtat ni
Dans le premier cas, la mthode la plus usuelle pour tuder les processus de comptage est de considrer des modles
de la forme suivante : soit (Y t ) le processus dni par
Yt1

Y t = Ut + "t =

Ui;t + "t o

i=1

Ui;t s B (p)
" t s P () :

(Ui;t) i.i.d.
("t ) i.i.d.

Les processus (Ut ) et ("t ) sont indpendants, conditionellement Y t1 ; Y t2 ; :::; Ut1 ; Ut2 ; :::. De plus, pour tout t,
Ut suit une loi binomiale B (Yt 1 ; p) : On a alors

Y t ~P
, et donc E (Y t ) =
.
1p
1p
De plus, la fonction dautocorrlation est donne par
(h) = cov (Y t; Y th ) =

ph
:
1p

Ce type de processus est appel Poisson AR (1) ou IN AR (1), selon la terminologie de Al-Osh et Alzad (1987) 5 . Pour
information, les paramtres p et dans ce genre de modle sont gnralement estims par maximum de vraisemblance.
McKenzie (1988) 6 a galement montr quil est possible de faire de la prvision laide de ce genre de modles,
puisque la loi de Y T +h conditionnellement au pass observ jusqu la date T vrie
P (Y T + h = xjXT = xT ) =

minfx; xT g

s=0

xT
s

xT s

s (1 )

1
(x s)!

1
1 p

1
exp
; o = ph ;
1p

dont la moyenne et la variance sont


E (YT +h jXT = x T ) = ph x T +

1 ph
1 ph
et V (Y T +h jXT = x T ) = p h 1 ph xT +
:
1p
1p

Dans le cas o la loi de Poisson nest pas la plus adapt, McKenzie (1986) 7 a propos dautres modles pour avoir,
marginalement, une loi gomtrique, ou une loi binomiale ngative.
Dans le second cas, le plus simple est de se ramerner la thorie des chanes de Markov.
1.2.7

Remarque sur les donnes hautes frquences

A retenir 2 Les modles que nous allons tudier dans ce cours sont bass sont bass sur ltude de processus (Xt ),
observs des dates rgulires : X1 ; X2 ; :::; Xt ; :::. Il peut sagir, par exemple, de la version discrre dun processus
en temps continu : on observe Xt1 ; Xt2 ; :::; Xtn ; ::: o les dates ti sont telles que ti ti1 soit constante pour tout i.
Dans le cas des donnes hautes frquences, lanalyse est relativement dirente, puisque laspect temporel doit tre
pris en compte. Par exemple, pour tudier la liquidit des marchs nanciers, on considre les triplets de variables
suivants : (T i; V i; P i), o T i est la date de la ime transaction, V i le volume chang lors de la transaction, et Pi le prix
de cette transaction. Cette tude permet de changer lchelle des temps : on ne considre plus le temps calendaire
5 AL-OSH,M.A. & ALZAID,A. (1987). First-order interger-valued autoregressive (IN AR (1)) process. Journal of Time Series Analysis.
8 261-275.
6 McKENZIE,E. (1988). Some ARMA models for dependent seque nces of Poisson counts. Advances in Applied Probability. 20 822-835.
7 McKENZIE,E. (1986). Autoregressive moving-average processes with negative-binomial and geometric marginal distribution. Advances
in Applied Probability. 18 679-705.

13

Sries temporelles : thorie et applications

Arthur CHARPENTIER

mais le temps des transactions. Et comme le montre le graphique ci-dessous, ces deux temps peuvent tre relativement
dirents
Obs
868
869
870
871
872
873
874
875
876
877
878
879
880
811

Time
10:00:04
10:00:06
10:00:07
10:00:08
10:00:13
10:00:15
10:00:18
10:00:19
10:00:22
10:00:23
10:00:27
10:00:28
10:00:29
10:00:32

PRICE
1378.50
1379.75
1379.50
1379.50
1378.25
1379.00
1379.75
1378.25
1380.25
1379.50
1379.50
1380.25
1380.50
1375.75

VOL
500
1000
800
1250
300
1500
500
750
1250
1500
1750
250
500
500

En eet, il y a trois fois plus de transactions sur un march tt le matin qu lheure du djeuner : le temps entre
deux transactions sera alors, en moyenne, trois fois plus long 13 heures 30 qu 9 heures 45. Cette dirence qui
existe entre les heures de la journe peut se retrouver entre les jours de la semaine (il y a ainsi, en moyenne, 10% de
transaction en plus le mardi, compar au vendredi ou au lundi), ou au mois (il y a, par jour ouvr, prs de deux fois
plus de transactions en septembre quen fvrier ).
La notion de base pour tudier ce genre de donnes est la thorie des modles de dures. On considre (Ti ), la
suite des dates de transaction, et i la date coule entre la ime et la i 1me transaction : i = T i T i1 .
Toutefois, dans ce cours, nous ne traiterons pas de ces aspects, mais nous considrerons plutt des agrgations, ou
des observations ponctuelles : P t sera le prix observ la date t (par exemple tous les jours, ou toutes les heures) et
V t le volume total chang pendant la priode (en une journe, ou une heure). Toutefois, il est noter que mme
dans ce cas, o les volumes de donnes sont trs importants, ltude peut savrer plus complexe que dans le cas o
lon considre des sries conomiques observes 200 dates, en particulier cause de la prsence de multiples cycles
(un cycle dune journe sera observe sur des donnes horaires par exemple, puis des cycles mensuels, ou trimestriels
(publication de comptes), ou encore annuels...).

1.3

Thorie des processus temps discret

Deux types de processus sont utiliss dans la thorie des sries stationnaires
(i) les processus stationnaires
(ii) les processus markoviens
1.3.1

Stationnarit des processus

La stationnarit joue un rle central dans la thorie des processus, car elle remplace (de faon naturelle) lhypothse
dobservation i.i.d. en statistique. Deux notions sont gnralement considres. La premire notion de stationnarit
peut se dnir de faon forte par une stabilit en loi du processus : quel que soit n, t1 ; :::; tn et h, on a lgalit entre
les lois jointes
L (Y t1 ; :::; Y tn ) = L (Y t1+h ; :::; Y tn+h )
Cette dnition toutefois peut tre aaiblie : le processus est dit stationnaire au second ordre si
- la moyenne du processus est constante : E (Yt ) = m pour tout t 2 Z
- les autocovariances ne dpendent que de la dirence entre les observations : cov (Xt ; Xs) = (jt sj)
Cette dernire proprit implique en particulier que la variance de Y t est constante : V (Y t) = 2 .

Remarque 2 Si lon considre les lois marginales ( t x) du processus, la stationnarit (forte) signie une stabilit
de la loi marginale : la loi de Y t et la loi de Y s sont identiques pour t 6= s. La stationnarit du second ordre correspond
uniquement une stabilit des deux premiers moments : E (Y t ) = E (Y s ) et V (Y t) = V (Y s) pour t 6= s. Dans ce cas,
rien nempche davoir des skewness et des kurtosis variables en fonction du temps. Le graphique ci-dessous gauche

14

Sries temporelles : thorie et applications

Arthur CHARPENTIER

correspond une stabilit au sens fort, et droite, une stationnarit au second ordre,

En particulier pour la stationnarit au sens fort, les moments dordre k, pour tout k 2 N, sont constants.
Remarque 3 Si lon considre la dpendance temporelle, la stationnarit du second ordre suppose uniquement une
stabilit de la corrlation (moment dordre 2) : cov (Xt ; Xt+h ) = cov (Xs; Xs+h ). La stationnarit au sens fort est
beaucoup plus forte que cette condition sur le moment dordre 2, puisquelle suppose une stabilit de toutes les lois
jointes8 : en particulier, cette condition implique lgalit en loi des couples (Xt ; Xt+h ) et (Xs ; Xs+h ). Dans lexemple
ci-dessous, nous avons considr deux processus dont les lois marginales reste constantes (Xt s N (0; 1) pour tout t),
avec une stationnarit au sens fort gauche (en particulier la loi (Xt; Xt+h ) est gale la loi de (Xs ; Xs+h )), et
une stationnarit au second ordre droite (en particulier, on a uniquement galit des covariances cov (Xt ; Xt +h ) =
cov (Xs ; Xs+h ))

La notion de stationnarit au second ordre, qui sera utilise dans la premire partie de ce cours, suppose uniquement
une stabilit des deux premiers moments :
- la stationnarit au second ordre nempche pas une variation des moments dordres plus levs (asymtrie de la
loi ou paisseur des queue fonctions du temps),
- la stabilit de la structure de dpendence entre Xt et Xt+ h se rsume une stabilit du coecient de corrlation
(ou de covariance).
8 Rappel : soient X et X de mme loi, Y et Y de m me loi, tels que cov (X ; Y ) = cov (X ; Y ), alors on na pas galit des lois
1
2
1
2
1
1

2 2

jointes : L(X1 ; Y1 ) 6= L (X2 ; Y2). En particulier, si X et Y suivent des lois normales N X ; 2X et N Y ; 2Y avec corr (X; Y ) = ,
alors on na pas ncessaire

X
X
2X
X Y
sN
;
2
Y
Y
X Y
Y

Un vecteur gaussien nest pas uniquement un vecteur dont les lois marginales sont uniformes (cf cours de probabilit).

15

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 4 Dans la pratique, on retrouve parfois des courbes aux allures sensiblement direntes,
8

20

15

10

0
0

-1

-5

-2

0
-10

-3
-4

-2
100

200

300

400

500

100

200

300

400

500

-15

100

200

300

400

500

La srie (Xt ) gauche est (ou tout du moins semble) stationnaire, la srie (Zt) au centre est dite non stationnaire
en moyenne, et la srie (Yt ) droite est dite non stationnaire en variance9 .
Lexemple le plus simple de processus stationnaire est le bruit blanc. Toutefois, de la mme faon quil est possible
de dnir deux notions de stationnarit, il existe deux sorte de bruit blanc. Le processus ("t ) est un bruit blanc
faible sil existe 2 telle que
8
< E ("t ) = 0 pour
tout t
V ("t ) = E "2t = 2 pour tout t
:
cov (" t; "t h ) = E ("t "th ) = 0 pour tout t; et pour tout h 6= 0:
Aucune hypothse dindpendance nest faite dans cette dnition. Les variables aux direntes dates sont uniquement
non corrles (ce qui fera une dirence importante, comme nous le verrons dans la partie sur les modles ARCH).
Cette hypothse dindpendance permet toutefois de dnir un bruit blanc fort, i.e.
8

< E ("t ) = 0 et V (" t) = E " 2t = 2 (nie) pour tout t
L (" t) = L ("th ) pour tout t; h
:
"t et "th sont indpendantes pour tout t; et pour tout h 6= 0:
1.3.2

Proprit de Markov en temps discret

La thorie sur les chanes de Markov (en temps discret) est galement un lment important.
Cette proprit correspond lide que lon souhaite rsumer linformation contenue dans les variables passes du
processus par un nombre ni de variables (les variables dtat). Dans le cas le plus simple, on souhaite que les variables
dtat soient des valeurs retardes du processus : toute linformation est contenue dans les k valeurs les plus rcentes
L (X tjXt1 ; Xt2 ; Xt 3 ; :::) = L (Xt jXt 1 ; :::; Xt k ) ;
qui peut se rcrire, lordre 1,
d

(Xt jXt 1 ; Xt 2 ; Xt3 ; :::) = (Xt jXt 1 ) :

Il est possible de montrer que cette relation est quivalente

Xt = g (Xt1 ; "t ) ; o (" t) est un bruit blanc.


Toutefois, cette thorie, visant chercher une fonction f telle que Xt = f (Xt1 ; "t ) peut tre dicile implmenter.
En conomtrie, on cherche une relation du type Y = g (X1 ; :::; Xn ; "), permant dexpliquer une variable Y laide
de variables exognes X1 ; ::; Xn . Cette fonction g tant a priori dicile exhiber, la mthode la plus simple est de
considrer le cas linaire. De la mme faon, la thorie des modles ARIM A vise expliquer Xt en fonction de son
pass (et ventuellement dun bruit ), de manire linaire.
9 Dans ce cas particulier, il est possible dutiliser la transformation dite de Box-Cox an de rduire la variabilit de la srie. On pose
alors

Yt = Xt 1 = si 6= 0 (sinon = log Xt )

o le paramtre est estim laide du maximum de vraissemblance.

16

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 5 Nous ne nous intresserons, dans ce cours, que dans le cas o lespace dtat est R, cest dire que nous
ne traiterons pas le cas des chanes de Markov (o Xt prend ces valeurs dans un espace dtat ni ou dnombrable)
espace dtat fi1 ; :::; i n ; :::g
espace dtat R

t discret
Cours sur les Chanes de Markov
Cours de Sries Temporelles

t continu
Cours de Calcul Stochastique

Les chanes de Markov correspondent par exemple au cas o Xt est valeurs dans un ensemble ni (fi 1 ; :::; i n ; :::g)
o dnombrable (N) : par exemple les variables dichotomiques, o Xt vaut soit 0, soit 1:. Le calcul stochastique
correspond au mouvement brownien, et aux processus de diusion obtenus partir du mouvement brownien. Le cas
o le temps est continu et o les variables sont valeurs dans N (par exemple) correspond aux processus de comptage,
aux processus de Poisson, la thorie des les dattente...etc.

1.4
1.4.1

Objectifs de ltudes des sries temporelles


Description et modlisation

Le but est ici de dterminer les direntes composantes dune srie (Xt ), en particulier, obtenir la srie corrige
des variations saisonnires (mthodes de dsaisonnalisation ). Pour les sries stationnaires, on peut aussi chercher
modliser la srie laide dun modle ARM A, par exemple dans le but de faire de la prvision.
1.4.2

Prvision

Sur la base dobservation X1 ; :::; XT le but est de faire une prvision, la date T , de la ralisation en T + h, note
b T (h). Une premire mthode est le lissage exponentiel, bas sur une formule de rcurrence de la forme X
b T (1) =
X
b
Xt + (1 ) XT 1 (h), o , compris entre 0 et 1, est gnralement choisi de faon minimiser la somme des carrs
des erreurs de prvision.
Dans le cas des modles ARM A, de nombreuses relations existent an de faire de la prvision, avec un intervalle
de conance. Nous verrons comment ces intervalles de conance sont modis si une modlisation ARC H est retenue,
ou du type mmoire longue.
Exemple 7 Quelques exemples de prvisions,
En 1977, Ken Olson, prsident du conseil dadministration, PDG et fondateur de la socit Digital Equipment
armait qu il ny a aucune raison de vouloir possder un ordinateur la maison .
Thomas Watson, prsident dIBM, prdisait en 1943 : Je crois que le march mondial pourrait peut-tre accueillir
cinq ordinateurs.
Une note de service de la Western Union qui armait, en 1876 : Le tlphone a bien trop de dfauts et de
lacunes pour que nous le considrions srieusement comme un moyen de communication. Cet appareil na pour ainsi
dire aucune valeur nos yeux.
En 1895, Lord William Thomson Kelvin, prsident de la Socit Royale des Sciences armait : Il est impossible
dimaginer des marchines volantes plus lourdes que lair.
Le concept est intressant et bien formul, mais pour esprer avoir une note meilleure quun C, encore faudraitil que lide soit ralisable!. dclara un professeur de management de luniversit de Yale en rponse la proposition
de Fred Smith de crer un service able de livraison de nuit (Smith fonda ensuite Federal Express Corp.)
Quelques jours avant le dbut de la crise, en 1929, Irving Fisher, Professeur d conomie lUniversit de Yale
dclarait Le march de la Bourse semble avoir atteint un haut plateau permanent.
Labdomen, la poitrine et le cerveau sont jamais interdits lintrusion de la connaissance et de la chirurgie
humaine. selon Sir John Eric Ericksen, chirurgien Anglais, mdecin personnel de la Reine Victoria, 1873.
1.4.3

Filtrage

Le lissage consiste transformer une srie de faon dtecter (pour liminer ou au contraire conserver ) certaines
caractrisques (composante saisonnire, points abrants...). Cette mthode permet galement de dtecter des ruptures
au sein dune srie.

1.5

Conseils bibliographiques

Les principaux ouvrages servant de rfrence ce cours sont les suivants,

17

Sries temporelles : thorie et applications

Arthur CHARPENTIER

DROESBEKE,J.J., FICHET,B. & TASSI,P. (1995). Sries chronologiques - thorie et pratique des modles
ARIMA, Economica
GOURIEROUX,C. & MONFORT,A. (1995) Sries temporelles et modles dynamiques, Economica
Des complments dinformations sur dirents points abords peuvent tre trouvs galement dans
BOURBONNAIS,R. & TERRAZA,M. (1998). Analyse des sries temporelles en conomie, PUF
BOX,G. & JENKINS,G.. (1970). Time Series analysis : forecasting and control , Holden-Day [519:5 BOX]
BROCKWELL, P.J. (1987) Time series : theory and methods Springer-Verlag
COUTROT, B & DROESBEKE,J.J. (1995) Les Mthodes de prvision Presses Universitaires de France (Que
sais-je ? 2157)
DACUNHA-CASTELLE,D. & DUFLO,M. (1985). Probabilits et Statistiques - Tome 2 : Problmes temps
mobile Masson
HAMILTON,J. (1994). Time series analysis , Princeton University Press [519:5 HAM ]
HARVEY,A.C. (1993) Time Series Models Cambridge: MIT Press [519:5 HAR]
HYLLEBERG S. (1992), Modeling Seasonality Oxford University Press [330:115 M OD]
LUTKEPOHL,H. (1991). Introduction to multiple time series analysis Springer-Verlag
MELARD, G. (1990) Mthodes de prvision court terme . Ellipses
NERLOVE M, GRETHER D.M, CARVALHO J.L. (1995). Analysis of Economic Time Series Academic Press.
PINDYCK,R.S & RUBINFELD,L.D. (1984) Econometric models and economic forecasts McGraw-Hill [330:115 P IN
Des complments et des documents au format pdf sont tlchargeables sur le site internet,
http : ==www:crest:fr=pageperso=lfa=charpent=charpent:htm
avec la version pdf de ce polycopis, des liens vers des notes de cours disponibles sur internet, et un certain nombre
de bases de donnes qui peuvent tre utilises en guise dexercices.

La nature semblait avoir sagement pourvu ce que les sottises des hommes fussent passagres, et les livres les
immortalisent. (Montesquieu, Les Lettres Persanes). Malgr les nombreuses relectures, il est possible quun certain
nombre de coquilles, voire derreurs persistent. Merci de men tenir inform....

18

Sries temporelles : thorie et applications

Arthur CHARPENTIER

"Contrariwise," continued Tweedledee,


"if it was so, it might be; and if it were so,
it would be; but as it isnt, it aint. Thats logic."
Lewis Carroll.

Proprits des processus univaris en temps discret

La pratique de lanalyse des sries temporelles vise modliser une (ou plusieurs, comme nous le developperons en
n de cours) srie dobservations x1 ; :::; x n par un processus alatoire temps discret, cest dire une suite (Xn )
de variables alatoires dnies sur un espace de probabilit (-; A; P), tel que lon puisse penser que la srie observe
soit une ralisation du processus. En dautres termes, x1 ; :::; x n doit tre obtenu comme tirage alatoire de X1 ; :::; Xn
suivant la probabilit P, cest dire que se ralise un vnement ! tel que x i = Xi (!) pour i = 1; :::; n. Le but
est alors, tant donne une tra jectoire x 1 ; :::; xn de reconstruire la dynamique du modle sous-jacent, cest dire de
comprendre la liaison entre Xi et son pass Xi1 ; Xi2 ; :::; X1 .

2.1

Rappels sur les martingales temps discret

Un processus ( temps discret ) sur un espace (-; A; P) est une suite de variables alatoires (Xt (!) ; t 2 N), valeurs
dans un espace mesur (E; E) (dans le cas qui nous intresse, E = R). On peut considrer le processus comme la
variable alatoire X (t; !), dni sur lespace produit - N muni de la tribu produit.
Dnition 1 Une ltration fFt ; t 2 Ng est la donne dune suite croissante (au sens de linclusion) de sous-tribus
de A. On posera F 1 = sup fFt ; t 2 Ng : il sagit de la plus petit tribu qui contienne toutes les Ft :
La ltration la plus usuelle est obtenue de la faon suivante : on observe une suite (Xt) de variables alatoires,
et on considre Ft = (X0 ; :::; Xt), qui est la plus petite tribu

qui rende mesurable les variables (X0 ; :::; Xn ). On


appellera ltration naturelle cette ltration, et on la notera FtX .
On dira que (Xt ) est adapte la ltration (F t) si pour tout t, Xt est F t -mesurable. La ltration naturelle est la
plus petite ltration par rapport laquelle le processus soit adapt. On dira que le processus (Xt ) est prvisible si
X
pour tout t 1, Xt est F t1
-mesurable.
Dnition 2 Le processus fXt ; t 2 Ng muni de la ltration fF t; t 2 Ng tel que pour tout t; Xt soit intgrable. On
dira que (Xt) est une martingale si et seulement si, pour tout t, E (Xt+1 jFt ) = Xt presque srement.
Remarque 6 Si pour tout t, E (Xt+1 jF t ) Xt presque srement, on dira que (Xt ) est une sous-martingale, et si
pour tout t, E (Xt+1 jFt ) Xt presque srement, on dira que (Xt ) est une sur-martingale.
Si (Xt ) est une (Ft )-martingale, alors pour tout h 0, E (Xt+h jF t) = Xt . De plus, si la martingale est de
carr intgrable, les accroissements sont orthogonaux : si Xt = Xt Xt 1 , pour s 6= t, E (Xt Xs ) = 0: Une des
consquences est que, pour tout h 0
h

2
2
E [Xt+h Xt] =
E Xt+i
:
i=1

2.2

Rappels sur les Chanes de Markov

Dnition 3 Le processus fXt ; t 2 Ng est une chane de Markov dordre 1 si et seulement si, pour tout t,
L (Xt jXt 1 ; Xt 2 ; Xt3 ; :::) = L (Xt jXt1 ) :
Autrement dit, compte tenu de la tra jectoire (XT 1 = xT 1 ; XT 2 = xT 2 ; :::) dun processus (Xt ), la loi de XT
linstant T est entirement dtermine par le fait que la valeur en T 1 soit xT 1 .
19

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Thorme 1 Le processus fXt ; t 2 Ng est une chane de Markov dordre 1 si et seulement sil existe une fonction
g (:) mesurable et un processus "t tel que Xt = g (Xt1 ; "t ) - avec ("t ) une suite de variables alatoires, indpendantes
et de mme loi.
Lorsque lapplication g ne dpend par de t, la chane de Markov est dite homogne.
Exemple 8 Les processus AR (1) : Xt = + Xt1 + "t; o ("t ) est un bruit blanc, sont markoviens.
Exemple 9 En particulier, les processus de la forme Xt = Xt1 + "t correspond une marche alatoire :
- si X0 2 Z et P (" t = 1) = P ("t = +1) = 1=2, on obtient la marche alatoire symtrique sur Z (jeu du pile ou
face),
- si "t suit une loi normale centre, on obtient une discrtisation du mouvement brownien.

2.3

Notions de processus stationnaire et de processus non-stationnaire

Dnition 4 Un processus
(Xt ) est stationnaire au second ordre si
(i) pour tout t, E Xt2 < +1,
(ii) pour tout t, E (Xt ) = , constante indpendante de t,
(iii) pour tout t et pour tout h, cov (Xt ; Xt+h ) = E ([Xt ] [Xt+h ]) = (h), indpendante de t.
Dnition 5 La fonction (:) sera appele fonction dautocovariance
On peut montrer aisment que (:) est une fonction paire, au sens o (h) = (h) pour tout h, et que la variance
V (Xt ) est constante, indpendante de t; V (Xt ) = (0) :
Proprit
1 Si (Xt ; t 2 Z) est un processus stationnaire, et si (ai; i 2 Z) est une suite de rels absolument convergente,
P
i.e.
i2Z jai j < +1; alors, le processus (Y t) dni par
X
Yt =
ai Xti; pour tout t 2 Z,
i2 Z

est un processus stationnaire.


Corollaire 2 En particulier, si (ai; i 2 Z) est une suite de rels nie, la suite Yt est stationnaire. Par exemple, si
a0 = a1 = 1=2, et ai = 0 pour i 2
= f0; 1g :
1
Y t = (Xt + Xt1 ) ;
2
est stationnaire ds lors que (Xt ) est stationnaire. De mme pour Yt = Xt Xt1 .
Dnition 6 Un processus (Xt ) est stationnaire au sens fort si pour tous t1 ; :::; tn et h on a lgalit en loi
d

(Xt1 ; :::; Xtn ) = (Xt1+h ; :::; Xtn +h ) :


Remarque 7 Cette notion revient dire que la loi temporelle est invariante en temps. Cette stationnarit est beaucoup
plus forte que la stationnarit du second ordre, puisquon ne recherche pas la stabilit de la loi, mais seulement la
stabilit des deux premiers moments.
Dnition 7 On appelle bruit blanc (parfois appel bruit blanc faible) un processus ("t) stationnaire dont les autocovariance sont toutes nulles : (h) = 0 pour h 6= 0.
Remarque 8 Nous avons vu dans la partie prcdante que (Xt) est une martingale si et seulement si, pour tout t,
E (Xt+1 jXt ; Xt1 ; ::::) = Xt pour tout t, ou, de faon quivalente, cela signie que Xt+1 = Xt +" t avec E ("t+1 j"t ; "t1 ; ::::) =
0 pour tout t. Cette notion est plus contraignante que celle de marche alatoire : en eet, la proprit de martingale
implique lindpendance des accroissements ("t) alors que la dnition de la marche alatoire nimplique que la nullit
des corrlations des accroissements.
Dnition 8 Un processus stationnaire (Xt) sera dit ergodique si pour tout p 2 N , et pour tout fonction borlienne
de Rp valeurs dans R, on a
N
1 X
f (Xi+1 ; Xi+ 2; :::; Xi+p ) ! E (f (X1 ; X2 :::; Xp )) ; quand N ! 1;
N
i=1

qui peut tre vu simplement comme une gnralisation de la loi de grand nombre.
20

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La notion de stationnarit (faible, ou au second ordre) se dnie par une invariance des moments dordre 1 et
2 au cours du temps. Par opposition, on dira quune srie est non-stationnaire si elle nest pas stationnaire. On
peut noter que la classe des processus non-stationnaire est alors relativement vaste, et surtout htrogne : il existe
direntes sources de non-stationnarit, et chaque origine de non-stationnarit est associe une mthode propre de
stationnarisation. Nelson et Plosser ont retenu, en 1982, deux classes de processus non-stationnaires : les processus
T S (trend stationary ) et les processus DS (dierence stationary ) Les premiers correspondent une non-stationnarit
de type dterministe, alors que les seconds correspondent une non-stationnarit de type stochastique.
Dnition 9 (Xt) est un processus non-stationnaire TS sil peut scrire sous la forme Xt = f (t) + Zt o f (t)
est une fonction (dterministe) du temps, et (Zt) est un processus stationnaire.
Lexemple le plus simple est celui de la tendance linaire bruite : Xt = + t + "t . Ce processus est en eet
non-stationnaire puisque son esprance vaut + t la date t, et donc, dpend de t. Une des proprits importantes
de ce type de processus est quil ny a pas persistance des chocs : linuence dun choc subit un instant aura
tendance sestomper au cours du temps, et la variable rejoint alors sa dynamique de long-terme, dtermine par
f (t).
Dnition 10 (Xt ) est un processus non-stationnaire DS - ou intgr dordre d, not I (d) - si le processus obtenu
d
aprs d direnciation est stationnaire : Zt = d Xt = (1 L) Xt est stationnaire
d

Comme nous le verrons par la suite, le fait quil faille direncier d fois, cest dire multplier par (1 L) , polynme
de loprateur retard L, revient chercher la prsence de racines unit : si le processus (L) Xt est stationnaire,
si 1 est une racine du polynme , alors (Xt) sera non-stationnaire. Cest pour cela que la plupart des tests de
non-stationnarit sont des tests de dtection de racine unit.

2.4
2.4.1

Fonction dautocovariance et densit spectrale


Autocovariance et autocorrlation

Dnition 11 Pour une srie stationnaire (Xt) ; on dnit la fonction dautocovariance, pour tout t, par
h 7! X (h) = cov (Xt ; Xth ) = E (Xt Xth ) E (Xt ) :E (Xt h ) :
Dnition 12 Pour une srie stationnaire (Xt) ; on dnit la fonction dautocorrlation, pour tout t, par
cov (Xt; Xt h )
(h)
p
= X
:
X (0)
V (Xt ) V (Xth )

h 7! X (h) = corr (Xt ; Xth ) = p

Cette fonction X (:) est valeurs dans [1; +1], et X (0) = 1.

Dnition 13 Un processus ("t ) sera appel bruit blanc (faible) sil est stationnaire, centr et non-autocorrl :
E ("t ) = 0; V ("t ) = 2 et " (h) = 0 pour h 6= 0:
On parlera de bruit blanc fort sil est indpendant et identiquement distribu (i:i:d:) : la notion dindpendance
est plus forte que la nullit des autocorrlations, et le fait que le processus soit identiquement distribu est plus fort
que la stabilit des deux premiers moments.
Exemple 10 Processus M A (1) : Xt = "t + "t1 o ("t ) est un bruit blanc centr de variance 2 ,
8

< (0) = 1 + 2 2

, soit (1) =
et (h) = 0 pour jhj 2:
(1) = 2
2
:
1
+

(h) = 0 si jhj 2
2.4.2

Densit spectrale

Lide ici est que les coecients dautocovariance dune srie stationnaire correspondent aux coecients de Fourier
dune mesure positive, appele mesure spectrale du processus. Il est possible de montrer que cette mesure spectrale
admet une densit, dite spectrale, par rapport la mesure de Lebesgue sur [; ], que nous noterons fX . Dans le cas
o la srie des autocovariance est absolument convergente, la densit spectrale est alors dnie comme la transforme
de Fourier des coecients dautocovariance (dans le cas o la somme des jX (h)j tend vers linni, la somme est
prendre au sens de L2 ) : comme lont montr Cramr, Kolmogorov, ou encore Wiener, on les rsultats suivants,
21

Sries temporelles : thorie et applications

Arthur CHARPENTIER

(i) la suite des fonctions dautocovariance X (h) dun processus stationnaire peut tre crit sous la forme
Z +
X (h) =
exp (i!h) dFX (!) ;

o F X (!) = X (0) est une fonction de rpartition,


R +
(ii) tout processus stationnaire peut se mettre sous la forme Xt = exp (i!t) dz (!) o z (!) est une fonction
alatoire, complexe, accroissements non corrls. Cette reprsentation est appele reprsentation de Cramr.
Dnition 14 Soit (Xt ) un processus stationnaire de fonction dautocovariance X (:), la densit spectrale de (Xt )
scrit
1 X
f X (!) =
X (h) exp (i!h) :
2
h2 Z

Proprit 2 Rciproquement, si f X (:) est la densit spectrale de (Xt ) alors


Z +
X (h) =
fX (!) exp (i!h) d!:

Exemple 11 Un bruit blanc (" t) est caractris par

" (0) = V (" t) = 2


" (h) = 0; pour h 6= 0;
Alors sa densit spectrale est donne par

2
(= constante).
2
Proprit 3 Si la densit spectrale dune srie (Zt ) est constante, alors (Z t) est un bruit blanc.
f " (!) =

Preuve. En eet
Z (h) =

f Z (!) exp (i!h) d! = K

Z
|

exp (i!h) d!
{z
}

=0 sau f si h=0

Cette nullit de la fonction dautocorrlation est donc une charactristique du bruit blanc.
Proprit 4 Si Xt est une moyenne mobile,
X

Xt =
ak "tk , o ("t ) est un bruit blanc BB 0; 2 ;
avec

k2Z

jaj j < +1. Si on considre Yt =

j Xtj alors, on a la relation suivante

i!j

fY (!) = f X (!) :
j e :
j2Z

j2Z

2
Exemple 12 Yt = Xt Xt 1 o jj < 1, alors f Y (!) = f X (!) 1 + e i! .

Remarque 9 La densit spectrale dun processus peut tre estime sous SAS, laide de la procdure spectra. Nous
allons reprendre ici lexemple de taches solaires observe de 1770 1869, tel que lavait fait Wolfer

22

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La procdure suivante permet dobtenir le priodogramme de cette srie


title "Wolfer0s Sunspot Data";
proc spectra data = sunspot out = b p s adjmean whitetest;
var wolfer;
weights 1 2 3 4 3 2 1;
run;

avec, respectivement, en haut, le priodogramme (P) en fonction de la frquence ( gauche), et de la priode ( droite),
et en bas, la densit spectrale estime (S) en fonction de la frquence ( gauche), et de la priode ( droite). Sur
ces donnes, on observe un pic correspondant une priodicit de 11 ans. Le graphique ci-dessous 10 correspond au
priodogramme obtenu sur direntes priodes dobservation,

2.4.3

Estimation de la fonction dautocorrlation

Considrons un ensemble dobservations X1 ; :::; XT .


La moyenne empirique est donne par
XT
1 0 tir

T
1 X
=
X t:
T t=1

de The analysis of economic time series, de Davis (1963) page 318.

23

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La fonction dautocovariance empirique est donne par


T (h) =
b

Th

1 X
Xt X T Xth X T ;
T h t=1

et la fonction dauto corrlation empirique est donne par

bT (h)

:
T (0)
b

T (h) =
b

Si ces estimateurs sont biaiss ( distance nie), ils sont malgr tout asymptotiquement sans biais.
Proprit 5 Les moments empiriques convergent vers les moments thoriques : X T ! m, b
T (h) ! (h) et b
T (h) !
(h) quand T ! 1.
En fait, comme nous le verrons par la suite, nous avons mme normalit asymptotique des moments empiriques.

Remarque 10 Bien que ces fonctions soient dnies pour tout h tel que T < h < T , la fonction dautocovariance
empirique fournit un estimateur trs pauvre de (h) pour des valeurs h proches de n. A titre indicatif, Box et Jenkins
recommandent de nutiliser ces quantits que si T > 50 et h T =4. In pratice, to obtain usefull estimate of the
autocorrelation function, we need at least 50 obsevations, and the estimated autocorrelations rk could be calculated for
k = 1; :::; K where K was not larger than, say, T =4.
An, par exemple, de faire de la selection de modles, il est important de pouvoir dire si les autocovariances
empiriques sont signicativement non nulles. Il est alors possible dutiliser le rsultat suivant
P
Proprit 6 Si (Xt ) est un processus linaire, au sens o il satisfait Xt =
j2Z j "t j o ("t) est une suite de
4
2 2
variables i.i.d. centres, telle que E "t = E "t < +1, o les j dnissent une srie absolument convergente, et
o est une constante positive, alors, on a la formule dite de Bartlett,
lim T cov (b
T (h) ; b
T (k)) = (h) (k) +

T !1

+1
X

i=1

(i) (i + k h) + (i + k) (i h) .

Preuve. Brockwell et Davis (1991) page 226.


Ce thorme nest, en thorie, valable que pour un bruit blanc fort. On peut galement montrer que ces autocorrlation vrient une proprit encore plus forte,
P
Proprit 7 Si (Xt ) est un processus linaire, au sens o il satisfait Xt =
j "t j o ("t) est une suite de
4
2 2

j2Z
2
variables i.i.d. centres, telle que E "t = E "t
< +1, et "t s N 0; , et o les j dnissent une srie
absolument convergente, et o est une constante positive, alors, on a, pour tout p 0,
0
1
00
1
1
T (0)
b
(0)
p B
C
BB . C
C
..
n@
A ! N @@ .. A ; V A ;
.
T (p)
b

(p)

o V est la matrice de variance-covariance dnie par


"
#
+1
X
V = (h) (k) +
(i) (i + k h) + (i + k) (i h)
i=1

:
h;k=0;:::; p

Preuve. Brockwell et Davis (1991) page 227.


2.4.4

Estimation de la densit spectrale

Le priodogramme est observations est dni comme le module au carr de la transform de Fourier discrte des
observations, i.e.
T
2

1 X
1 X

IT (x) =
Xt exp (itx) =
T (h) exp (i!x) :
b

2T

2
t=1

h2Z

Le plus souvent, on estime le priodogramme aux frquences de Fourier, i.e. x k = 2k=T pour k = 1; :::; T , not IT ;k .
Sous des hypothses de rgularit de la densit spectrale, le priodogramme est un estimateur asymptotiquement sans
biais de la densit spectrale. Mais il nest pas consistant (on ne peut estimer que les T premier (h) intervenant dans
la dnition du priodogramme partir de T observations ).
24

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 13 Dans le cas dun processus i.i.d. gaussien, valu aux frquences de Fourierde ]0; [ forme une suite de
variables indpendantes, et identiquement distribues, suivant une loi du 2 , centr, deux degrs de libert.
Exemple 14 Pour les processus dit mmoire longue, la densit spectrale sexprime sous la forme
f (x) = j1 exp (ix)j 2d f (x) ;
o f est une fonction positive. Les valeurs du priodogramme sont asymptotiquement biaises, et asymptotiquement
corrles. Le fait que cette fonction ait un ple (ici en 0) est dailleurs une caractrisation de la mmoire longue.
Cette densit spectrale permet dobtenir un grand nombre de rsultat. Par exemple, il est possible destimer
directement la variance du processus dinnovation11 , en utilisant la formule dite de Kolmogorov,
Z 2

1
2
= 2 exp
log fX (x) dx :
2 0
Un estimateur de cette variance est alors
b2 =

T
1 X
log IT ;k :
T t=1

Dans le cas des processus mmoire longue, la densit spectrale est de la forme f X (x) s Cx 2d . Un estimateur non
paramtrique de d peut tre obtenu en rgressant localement le log-priodogramme dans un voisinage de la frquence
nulle. On appelle alors estimateur GPH
m
! 1 m
mT
T
T
X
X
2 X
2
b
d=
LT ; k
LT ;n : log L T ;k o LT ; k = 2 log jx k j +
log IT ;j ;
mT
k=1

k=0

j=1

et o m T est une suite dentiers positifs telle que m T ! 0 = 1 et m T =T ! 0 quand T ! 1.

2.5

Lien entre processus en temps continu et en temps discret

Dnition 15 Un mouvement brownien Wt est un processus stochastique, dnit pour t 2 R +, tel que W 0 = 0 et
tel que, quelles que soient lesdates t1 < t2 < ::: < tk , les variations
du processus Wt2 Wt1 ; Wt3 Wt2 ; :::; W tk Wtk1
sont indpendantes, avec E Wti Wtj = 0 et V Wti W tj = 2 (ti tj ). De plus, les variations du processus

entre deux dates ti et tj (telles que ti < tj ) sont normalement distribues W ti W tj s N 0; 2 (ti tj ) .
Dans le cas o 2 = 1, on parlera de mouvement brownien standard. De plus, W t est continu en t, sans tre
drivable : bien que le processus soit continu, les variations ne sont pas bornes. Pour visualiser un mouvement browien
il sut de considrer une marche alatoire continue : on considre une marche alatoire discrte (Xt = Xt1 + "t o
"t s N (0; 1)), pour laquelle on diminue les intervalles temporels entre deux dates conscutives,
50
40
30
20
10
0
-10

100

200

300

400

500

600

700

DX

Proprit 8 Soit X1 ; X2 ; :::; XT un chantillon i:i:d:, centr, de variance 2 . Soit [:] la partie entire au sens o
[x] x < [x] + 1 et [x] 2 Z, alors pour tout 0 < r < 1,
[rT ]

1 1 Cette

notion sera dnie en dtails par la suite.

1
L
qp
Xt ! N 0; 2
[rT ] t=1
25

Sries temporelles : thorie et applications

Arthur CHARPENTIER

( r)

Ce rsultat est parfois appel Thorme Centrale Limite Fonctionnel . Notons X T la variable construite partir
des [rT ] premires observations par
[r T ]
1 X
(r )
XT =
X t;
T t=1
du rsultat prcdant, il en dcoule que
p

p (r2)
(r1)
T XT XT

(r )
TXT L

! N (0; r) ou encore

! N (0; r2 r1 ) ;

p
(:)
pour r1 < r2 . Ceci permet de montrer que la suite des T :X T = est asymptotiquement distribue comme un
mouvement brownien, au sens o
p
(:)
T XT L
! W:

Ce type de rsultat est alors trs utile pour obtenir des rsultats analytiques sur les processus intgrs.
Considrons par exemple, une marche alatoire dnie par Xt = Xt1 + "t o "t est un bruit blanc de variance 2 ,
(r)

soit Xt = "1 + "2 + ::: + "t pour tout t, avec la convention X0 = 0: Notons X T la variable construite partir des [rT ]
premires observations par
(r )

X T ==

[rT ]
1 X
1
i 1
i
Xt = (" 1 + "2 + ::: + " i) ; o
r< ;
T t=1
T
T
T

on a alors

p Z
T

1
0

=T

3=2

T
X

x t1 ;

t=1

et daprs le thorme central limite fonctionnel,


T 3=2

(r)
X T dr

(:) L

T :X T ! W: . On obtient alors le rsultat suivant

T
X
t=1

T !1

Xt1 !

W s ds:

De faon analogue, on peut montrer que


T 2

T
X

2 T !1

(Xt1 )

t=1

! 2

(W s) ds:
0

Ces rsultats seront utiliss en particulier pour la dtermination des proprits asymptotiques des estimateurs obtenus
partir de sries intgres.
La construction de lintgrale stochastique sobtient dailleurs comme passage la limite sur des processus
temps discret12 . Considrons un dcoupage en T subdivisions de lintervalle de temps [0; 1] : soit st = t=T pour
t = 0; 1; :::; T . Considrons ici (Xst ), not (Y t ), un processus dni pour t = 0; 1; :::; T . On appelera variation
quadratique de la srie chronologique (Y ) la srie chronologique dnie par
< Y >t =

t
X

j= 1

[Y j Y j 1 ] pour t = 0; 1; :::; T

La variation quadratique du mouvement bronwien standard (W t) est obtenu comme passage la limite
< W > t= lim

T !1

1 2 De

t
X
j=1

[Wj W j1 ]2 = t

faon plus simple, lintgrale dune fonction alatoire par rapport une mesure dterministe de dnie dj comme une limite :
soit At un processus en temps continu, et considrons un dcoupage en T subdivisions de lintervalle de temps [0; 1] : soit s = s=T pour
s = 0; 1; :::; T . Considrons ici X s, not Ys, le processus dni pour s = 0; 1; :::; T , par Ys = At I (T t s < T (t + 1)), alors
Z t
s
1 X
As ds = lim
Ys
T !1 T
0
j =1

26

Sries temporelles : thorie et applications

Arthur CHARPENTIER

De la mme faon, lintgrale stochastique se dnit en temps discret par


Zt =

XsdW s =

t
X
i=1

Xi [W j Wj 1 ]

o (Xs ) est un processus discret : Xs = Xi pour (i 1) =T s < i=T , puis par passage la limite, stend aux
processus en temps continu.
Aussi, tous les modles nanciers en temps continu ont un analogue en temps discret. Mais si les modles en temps
continu sont autant utiliss, cest principalement parce que le calcul stochastique et la formule dIto permet danalyser
les problmes de faon lgante et relativement rapide.
Un processus suivant lquation stochastique
Z t
Z t
dY t = f (t; Y t ) dt + g (t; Y t) dWt ou Yt = Y0 +
f (s; Y s ) ds +
g (s; Y s) dWs
0

peut tre assimil un processus en temps discret vriant lquation (approximation dEuler )
Yt+1 Yt = f (t; Yt ) + g (t; Y t ) [Wt+ 1 Wt ] = f (t; Y t ) + g (t; Y t ) "t
o ("t) est un bruit blanc gaussien, de variance 1.
Remarque 11 Rciproquement, en reprenant un exemple de Nelson (1990), un modle temps discret de type
GARCH (1; 1) M (multivari), dni par


Y t = Y t1 + f 2t + t "t
2t+1 = ! + 2t ( + " t)
o ("t ) est un bruit blanc gaussien, est lanalogue en temps discret de lquation de diusion


dYt = f 2t dt + t dW t1
d 2t = ! 2t dt + 2t dW t2

o Wt1 et W t2 sont deux mouvements browniens centrs, rduits et indpendants.

27

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La dcomposition tendance-cycle
Lanalyse des sries temporelles (conomiques par exemple ) repose le plus souvent sur une dcomposition tendancecycle de la srie. Toutefois, cette dcomposition, si elle est trs utilise en pratique, ne repose pas sur une construction
thorique unique. Il est alors souvent admis que la tendance correspond lquilibre de long terme, alors que le cycle
correspond la dynamique de court terme. Mais cette distinction ne sut pas pour identier clairement les deux
composantes, et des hypothses supplmentaires sont alors ncessaires.
Deux approches sont alors gnrallement utilises : la premire consiste utiliser une thorie conomique (cest
dire un modle structurel dont les composantes auront des interprtations conomiques ), alors que la seconde tend
utiliser des outils statistiques neutres . Nous allons nous intresser ici cette seconde approche. Nanmoins,
nous pouvons ds prsent noter que cette neutralit est dicile mettre en oeuvre : il existe une innit de faon
de construire la tendance moyenne, par exemple. Il existe alors de nombreuses mthodes pour valuer la croissance
tendancielle.
Nous allons nous concentrer ici sur des dcompositions additives de la forme (Xt ) = (T t ) + (C t ). Un modle
multiplicatif peut en eet se ramener un modle additif en passant au logarithme. Les mthodes traditionelles
reposent sur deux techniques : lestimation dune tendance dterministe et le lissage. Des mthodes plus rcentes se
basent sur la notion de tendance stochastique, avec en particulier la mthode de Beveridge et Nelson, et les modles
composantes inobservables.
Parmi les mthodes de lissage, lapproche la plus simple consiste utiliser des moyennes mobiles on utilise alors
une moyenne (pondre) de la srie (Xt) dont la dure correspond au cycle, qui conserve la tendance et limine le
cycle. La moyenne symtrique arithmtique est lexemple le plus simple : on considre alors la srie (Yt ) dnie par
Yt = M (Xt ) =

1
(Xt m + Xtm+1 + ::: + Y t1 + Yt + Y t+1 + ::: + Yt+m )
2m + 1

(3)

Ce type de lre, comme nous le verrons par la suite, conserve les tendances linaires, et ltre (ou annule) les sries
priodiques de priode 2m + 1. Toutefois, deux problmes apparaissent dans lutilisation des ltres moyennes-mobiles
- les points extrmes de la srie ne peuvent tre traits de la mme faon que les autres points (eet de bord )
- les sries lisses sont souvent autocorrles, non pas cause de la structure de la srie initiale, mais il sagit dune
consquence du processus de lissage (eet Slutsky-Yule ).
Dautre mthodes de lissage existent, par exemple en utilisant la mthode P AT (phase average trend ) ou le ltre
de Hodrick-Prescott (1980).
Lestimation dun trend dterministe repose sur lutilisation de fonctions simples, par exemple linaires,
Xt = T t + C t = a + bt + C t

(4)

Ces modles apparaissent parfois dans la littrature sous le terme T S (trend stationary ), et le cycle (suppos stationnaire) apparat alors comme lcart la tendance. Cette tendance est alors estime par rgression. Cette mthode
sera celle developpe dans la premire partie, mme si elle a t fortement critique : la croissance long terme est
alors xe de faon mcanique. Des modles avec rupture de tendance ont ainsi t introduits.
Il convient toutefois de noter que cette dcomposition tendance-cycle ne sont pas adaptes pour les sries nonstationnaires, et il convient dintgrer une composante stochastique dans la tendance. Le modle de Beveridge et
Nelson propose dexprimer les composantes laide dune reprsentation ARIM A de la srie (trait dans lexercice (5)).
Les modles composantes inobservables repose surlutilisation de modles espace-tat (introduits dans le paragraphe
(7:4:3) sur le ltre de Kalman). Ces deux mthodes sont prsentes dans larticle de Doz, Rabault et Sobczack
Dcomposition tendance-cycle : estimations par des mthodes statistiques univaries (1995).

28

Sries temporelles : thorie et applications

3
3.1

Arthur CHARPENTIER

Dsaisonnalisation par regression linaire


Prsentation des donnes

Nous considrons ici une srie chronologique, mensuelle, comportant une forte saisonalit : trac voyageur de la SNCF
(source : Gouriroux & Monfort (1995))

1963
1964
1965
1966
1967
1968
1969
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980

J AN
1750
1710
1670
1810
1850
1834
1798
1854
2008
2084
2081
2223
2481
2667
2706
2820
3313
2848

F EB
1560
1600
1640
1640
1590
1792
1850
1823
1835
2034
2112
2248
2428
2668
2586
2857
2644
2913

M AR
1820
1800
1770
1860
1880
1860
1981
2005
2120
2152
2279
2421
2596
2804
2796
3306
2872
3248

AP R
2090
2120
2190
1990
2210
2138
2085
2418
2304
2522
2661
2710
2923
2806
2978
3333
3267
3250

M AY
1910
2100
2020
2110
2110
2115
2120
2219
2264
2318
2281
2505
2795
2976
3053
3141
3391
3375

J UN
2410
2460
2610
2500
2480
2485
2491
2722
2175
2684
2929
3021
3287
3430
3463
3512
3682
3640

JU L
3140
3200
3190
3030
2880
2581
2834
2912
2928
2971
3089
3327
3598
3705
3649
3744
3937
3771

AU G SE P
2850 2090
2960 2190
2860 2140
2900 2160
2670 2100
2639 2038
2725 1932
2771 2153
2738 2178
2759 2267
2803 2296
3044 2607
3118 2875
3053 2764
3095 2839
3179 2984
3284 2849
3259 3206

OCT
1850
1870
1870
1940
1920
1936
2085
2136
2137
2152
2210
2525
2754
2802
2966
2950
3085
3269

N OV
1630
1770
1760
1750
1670
1784
1856
1910
2009
1978
2135
2160
2588
2707
2863
2896
3043
3181

DE C
2420
2270
2360
2330
2520
2391
2553
2537
2546
2723
2862
2876
3266
3307
3375
3611
3541
4008

Trafic voyageur SNCF - mensuel


4500
4000
3500
3000
2500
2000

3.2

janv-79

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

janv-70

janv-69

janv-68

janv-67

janv-66

janv-65

janv-64

1000

janv-63

1500

Le modle linaire

La srie Xt est la somme de 2 composantes dterministes : une tendance Zt , dune saisonnalit St et dune
composante alatoire "t
Xt = Zt + St + "t :
On suppose que Zt et S t sont des combinaisons linaires de fonctions connues dans le temps, Zti et Stj , i.e.

Zt = Zt1 1 + Zt2 2 + ::: + Ztm m


S t = St1 1 + S2t 2 + ::: + Snt n :
Le but est destimer les 1 ; :::; m et 1; :::; n partir des T observations.
Xt =

m
X
i=1

3.2.1

Zti i +

n
X

Stj j + "t pour t = 1; :::; T :

j=1

Hypothses sur les erreurs

On supposera lhypothse (H1) vrie, savoir que les erreurs sont centres : E ("t ) = 0, de mme variance
V ("t ) = 2 et non-corrles cov ("t ; " th ) = 0 pour tout h > 0.
29

Sries temporelles : thorie et applications

3.2.2

Arthur CHARPENTIER

Composante saisonnire du modles

La forme de St dpend du type de donnes, et de la forme de la saisonnalit. On considrera ici des fonctions Sti
indicatrices,

0 si t = mois i
0 si t = 0 [modulo i]
Sti =
ou Sti =
1 si t 6= mois i
1 si t 6= 0 [modulo i] :
Exemple 15 Pour des donnes trimestrielles, on a St = S1t 1 + S2t 2 + St3 3 + St4 4 o Stj est la fonction indicatrice
du trimestre j:
3.2.3

Composante tendancielle

Cette composante a gnralement une forme simple, retant la croissance moyenne.


Exemple 16 Pour une tendance linaire, Zt = 1 + 2 t on pose Z 1t = 1 et Zt2 = t:
Plusieurs types de composantes tendancielles existent :
(i) linaire : Zt = 0 + 1 t;
(ii) exponentielle : Z t = t, ou Zt = (1 + r)t ou encore Zt = exp (rt) ;
(iii) quadratique Zt = 0 + 1 t + 2t2 ;
(iv) de Gompertz Zt = exp t + ;

1
(v) logistique Zt = t
:
Le cas (i) se traite par rgression simple (cf partie suivante), le cas (ii) se ramne au cas (i) par transformation
logarithmique, et le cas (iii) se traite par rgression multiple. Il est galement possible dutiliser des modles avec des
ruptures :

0 + 1 t pour t t0
Zt =
0 + 1 t pour t > t0 :
Cette tendance est une des composante les plus complique modliser car il nexiste pas vraiment de mthode

Exemple 17 Considrons comme variable le logarithme de lindice du New York Stock Exchange.reprsent cidessous, en haut gauche, sur laquelle nous avons tent trois ajustements dirents : linaires (en haut droite),
quadratique (en bas gauche) et exponentiel (en bas droite) :
7
6,5

log(NYSE)
Linaire

6
5,5
5
4,5
4
3,5
3
1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999

7
6,5

log(NYSE)

6,5

Polynomial

5,5

5,5

4,5

4,5

3,5

3,5

log(NYSE)
Exponentiel

3
1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999

1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999

La vraie dicult est que la modlisation doit pouvoir avoir un sens : une tendance linaire indique une croissance
linaire, alors quune tendance exponentielle indique une augmentation constante (rapport Xt =Xt 1 constant). En
revanche, une tendance quadratique peut tre plus dicile justier puisque la plupart des modles structurels sont
gnralement additifs (linaires) ou multiplicatifs (linaire en prenant le logarithme). Les tendances linaires avec
galement trs utilise, puisquelle sont souvent plus adapte quune tendance linaire simple, et surtout, la rupture
a une interprtation structurelle.

30

Sries temporelles : thorie et applications

3.2.4

Arthur CHARPENTIER

Modle trimestriel de Buys-Ballot (1847)

La dsaisonnalisation par rgression linaire, dans le cas o la tendance est suppose linaire, et les donnes sont
trimestrielles, quivaut tester le modle linaire
Xt = a + t + 1 St1 + 2 St2 + 3 S 3t + 4 St4 + "t ;
| {z } |
{z
}
Zt

St

o Zt est la tendance (linaire) et o St est la composante saisonnire. Supposons que les


1er trimestre. Le modle scrit alors, pour lexemple du trac SNCF
0
1
0
1
0
1
0
1
0
1
0
1
0
5130
1
1
1
0
0
B 6410 C
B 1 C
B 2 C
B 0 C
B 1 C
B 0 C
B
B
C
B
C
B
C
B
C
B
C
B
C
B
B 8080 C
B 1 C
B 3 C
B 0 C
B 0 C
B 1 C
B
B
C
B
C
B
C
B
C
B
C
B
C
B
B 5900 C
B 1 C
B 4 C
B 0 C
B 0 C
B 0 C
B
B
C
B
C
B
C
B
C
B
C
B
C
B
B 5110 C
B 1 C
B 5 C
B 1 C
B 0 C
B 0 C
B
B
C
B
C
B
C
B
C
B
C
B
C
B
B 6680 C
B 1 C
B 6 C
B 0 C
B 1 C
B 0 C
B
B
C = B
C+ B
C + 1 B
C + 2 B
C + 3 B
C + 4 B
B 8350 C
B 1 C
B 7 C
B 0 C
B 0 C
B 1 C
B
B
C
B
C
B
C
B
C
B
C
B
C
B
B 5910 C
B 1 C
B 8 C
B 0 C
B 0 C
B 0 C
B
B
C
B
C
B
C
B
C
B
C
B
C
B
B 5080 C
B 1 C
B 9 C
B 1 C
B 0 C
B 0 C
B
B
C
B
C
B
C
B
C
B
C
B
C
B
B .. C
B .. C
B .. C
B .. C
B .. C
B .. C
B
@ . A
@ . A
@ . A
@ . A
@ . A
@ . A
@
Xt

S 1t

qui peut se rcrire, de faon matricielle,


0
1 0
5130
1 1
B 6410 C B 1 2
B
C B
B 8080 C B 1 3
B
C B
B 5900 C B 1 4
B
C B
B 5110 C B 1 5
B
C B
B 6680 C B 1 6
B
C=B
B 8350 C B 1 7
B
C B
B 5910 C B 1 8
B
C B
B 5080 C B 1 9
B
C B
B . C B . .
@ .. A @ .. ..
Xt
1 t

1
0
0
0
1
0
0
0
1
..
.
S1t

0
1
0
0
0
1
0
0
0
..
.
St2

0
0
1
0
0
0
1
0
0
..
.
St3

St2

0
0
0
1
0
0
0
1
0
..
.
St4

C
C
C0
C
C
CB
CB
CB
CB
CB
CB
C@
C
C
C
C
C
A

St3

B
B
1 B
B

B
B
C
C B
B
C
1 C B
+B
C
2 C B
B
3 A B
B
4
B
B
B
@

"1
"2
"3
"4
"5
"6
"7
"8
"9
..
.
"t

donnes commencent au
0
0
0
1
0
0
0
1
0
..
.
St4

C B
C B
C B
C B
C B
C B
C B
C B
C B
C+B
C B
C B
C B
C B
C B
C B
C B
A @

"1
"2
"3
"4
"5
"6
"7
"8
"9
..
.
"t

C
C
C
C
C
C
C
C
C
C;
C
C
C
C
C
C
C
A

C
C
C
C
C
C
C
C
C
C soit X = Y + "
C
C
C
C
C
C
C
A

Lcriture de lestimateur des moindres carrs ordinaires scrit b = (Y 0 Y ) 1 Y 0X. Toutefos, cette criture nest possible
que si Y 0Y est inversible, ce qui nest pas le cas ici car la premire colonne (correspondant la constante) est gale
la somme des 4 dernires (les composantes trimestrielles ). Deux mthodes sont alors possibles pour faire malgr tout
lidentication du modle.
ne pas tenir compte de la constante, et identier le modle
Xt = t + 1 St1 + 2 St2 + 3 St3 + 4 St4 + "t ;
ra jouter une contrainte, et identier le modle

Xt = + t + 1 St1 + 2 S2t + 3 St3 + 4 St4 + "t


sous contrainte 1 + 2 + 3 + 4 = 0;

31

(5)

(6)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Cette dernire contrainte est arbitraire, mais correspond une interprtation bien prcise. Considrons la srie
reprsente ci dessous, avec une saisonnalit dordre 4 (donnes trimestrielles)
350

350

300

300

250

250

200

200

150

150

100

100

50

50

Le modle (5) correspont au graphique ci-dessus gauche : le modle


0
1 0
45
1 1
0
0
0
B 110 C B 2 0
1
0
0
B
C B
B 215 C B 3 0
0
1
0
B
C B
B 80 C B 4 0
0
0
1
B
C B
B 65 C B 5 1
0
0
0
B
C B
B 130 C B 6 0
1
0
0
B
C=B
B 235 C B 7 0
0
1
0
B
C B
B 100 C B 8 0
0
0
1
B
C B
B 85 C B 9 1
0
0
0
B
C B
B . C B .
.
.
.
..
..
..
..
@ .. A @ ..
.
Xt
t St1 S 2t S3t St4

scrit
1
C
C
C
C0
C
C
CB
CB
CB
CB
C@
C
C
C
C
C
C
A

5
40
100
200
60

C
C
C;
C
A

alors que le modle (6) correspont au graphique ci-dessus droite et le modle scrit alors
0
1 0
1
45
1 1 1
0
0
0
B 110 C B 1 2 0
1
0
0 C
B
C B
C
B 215 C B 1 3 0
0
1
0 C
1
B
C B
C0
B 80 C B 1 4 0
C
100
0
0
1
B
C B
CB
B 65 C B 1 5 1
5 C
0
0
0 C
C
B
C B
CB
B 60 C
B 130 C B 1 6 0
C
1
0
0
B
C:
B
C=B
CB
B 235 C B 1 7 0
CB 0 C
0
1
0
C
B
C B
C@
100 A
B 100 C B 1 8 0
C
0
0
1
B
C B
C
40
B 85 C B 1 9 1
0
0
0 C
B
C B
C
B .. C B .. ..
..
..
..
.. C
@ . A @ . .
.
.
.
. A
1
2
3
Xt
1 t S t St St St4

Dans le premier modle, la tendance ne correspond pas tout fait la notion intuitive de la saisonnalit
En fait, il est possible de voir aisment quun simple jeu de translations permet de passer dun modle lautre.

3.3
3.3.1

Estimateur des moindres carrs ordinaires (mco)


Solutions gnrales

On considre un modle de la forme


Xt =

m
X
i=1

Zti i +

n
X

Stj j + "t pour t = 1; :::; T :

j=1

32

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La mthode des mco consiste choisir les i et j de faon minimiser le carr des erreurs
(
)

X
2
b
;b

= arg min
"
i

t= 1

=
0

8
2
329
>
>
m
n
<X
=
X
X
4 Xt
arg min
Zti i +
Stj j 5
:
>
>
: t=1
;
i=1
j=1
0

Notations : = ( 1; :::; m ) , = ( 1 ; :::; n ) ,


2
3
2
j
j
j

Z = 4 Z 1 ::: Z m 5 = Zti i=1; :::;n et S = 4 S 1


t= 1;::: ;T
j
j
j

Le modle scrit

:::

X = Z + S + " = [ZjS]
+ " = Y b + ";

0
et b
b= b
;
b vrie alors lquation

Y 0Y bb = Y 0 X soit [Z S]

et donc

3
j
h i
S n 5 = S jt j=1;:::; n
t=1;:::;T
j

Z0Z
S 0Z

Z0S
S 0S

Z0
S0

bb =

Z 0X
S0X

Z0
S0

X;

ce qui donne les coecients


8
h
i 1 h
i
>
1
1
< b
= Z 0 Z Z 0 S (S 0 S) S 0 Z
Z 0 X Z 0 S (S 0 S) S 0 X
h
i 1 h
i
>
1
1
: b
= S 0 S S 0 Z (Z 0 Z) Z 0S
S 0 X S 0 Z (Z 0 Z) Z 0X :

Remarque 12 Sil ny a pas deet saisonnier, X = Z + ", et on retrouve le modle linaire usuel, avec pour
estimateur mco b
= [Z 0 Z]1 Z 0 X:
3.3.2

Cas particulier : le modle trimestriel de Buys-Ballot

Pour le modle
Xt = 1 + 2 t + St1 1 + St2 2 + S 3t 3 + St4 4 + "t ;
il est possible dexpliciter les dirents coecients. Lquation
(
i2
PT h
P4
j
min ; t= 1 Xt 1 2 t j=1 St j
sous contrainte () 1 + 2 + 3 + 4 = 0;
peut se rcrire

8
2
32
>

T
4
<
X
X
1 = [1 + 2 + 3 + 4 ] =4
4 Xt 2 t
min
Stj j 5 o
j = j 1 ;
>
;
:
t=1
j=1

En notant N le nombre dannes entires (N = T =4), on pose


x n : moyenne des Xt relatives lanne n
e
x j : moyenne des Xt relatives au trimestre j
x : moyenne de toutes les observations Xt
On a alors les estimateurs suivant
PN
N (N+1)
ne
xn
x
2
b
2 = 3 n= 1
N (N 2 1)
b pour j = 1; 2; 3; 4
bj = x j [j + 2 (N 1)]
2

do nallement

h
i
b
1 = b1 + b
2 + b
3 + b4 =4
= bj b
b

33

(7)
(8)
(9)

Sries temporelles : thorie et applications

3.3.3

Arthur CHARPENTIER

Gnralisation des formules de Buys-Ballot (tendance linaire)

Les relations obtenues dans le cas prcdant peuvent en fait tre gnralises dans le cas dune priodicit m; et en
notant (de la mme faon que prcdemment ) N le nombre dannes entures. L modle scrit alors
Xt = 1 + 2 t + St1 1 + St2 2 + St3 3 + ::: + Sm
t m + "t:
Lquation

min ;

PT

t=1

h
i2
P
j
Xt 1 2 t m
j=1 St j

sous contrainte () 1 + 2 + 3 + ::: + m = 0;

admet alors pour solution, en notant


12
b
2 =
m

PN

N (N+1)

ne
xn
2
N (N 2 1)

n=1

Nm + 1
b 1 = x b
2
2

m+1
j = e
b
xj x b
2 j
2

3.4
3.4.1

Application au trac voyageur


Srie agrge par trimestre

Considrons la srie du traic SNCF agrge par trimestre, reprsente


colonne les trimestres,
nnj
1
2
3
4
1 5130 6410
8080
5900
2 5110 6680
8350
5910
3 5080 6820
8190
5990
4 5310 6600
8090
6020
5 5320 6800
7650
6110
6 5486 6738
7258
6111
7 5629 6696
7491
6494
8 5682 7359
7836
6583
9 5963 6743
7844
6692
10 6270 7524
7997
6853
11 6472 7871
8188
7207
12 6892 8236
8978
7561
13 7505 9005
9591
8608
14 8139 9212
9522
8816
15 8088 9494
9583
9204
16 8983 9986
9907
9457
17 8829 10340 10070 9669
18 9009 10265 10236 10458
xj
6605 7932
8603
7425

34

ci-dessous, avec en ligne les annes, et en


en
x
6380
6513
6520
6505
6470
6398
6578
6865
6811
7161
7435
7917
8677
8922
9092
9583
9727
9992
7641

Sries temporelles : thorie et applications

Arthur CHARPENTIER

reprsente ci-dessous,
11000
10000
9000
8000
7000
6000
5000

64

66

68

70

72

74

76

78

80

SNCF

Considrons alors un modle de la forme suivante, avec une saisonnalit en 4 composantes (les donnes tant trimestrielles
: chaque composante correspondant un trimestre ), et une tendance suppose linaire (Zt = 1 + 2 t),
Xt = 1 + 2 t + St1 1 + St2 2 + S 3t 3 + St4 4 + "t ;
Compte tenu de la sur-identication de ce modle, on rajoute la contrainte que la somme des j soit nulle (cest dire
que la composante saionnire soit centre : E (St ) = 0). On peut alors faire lestimation de la faon suivante :
(i) on estime le modle (5), cest dire sans contrainte, et sans constante 1
(ii) et on se ramne au modle (6) en utilisant les relations.
Pour ltape (i) deux mthodes analogues sont possibles : soit en utilisant les expressions des estimateurs, soit en
eectuant la rgression sous EViews
Calcul direct des estimateurs
Les calculs ont t fait ici sous MSExcel, et sont prsents ci-dessous :
1963
1964
1965
1966
1967
1968
1969
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980

nnj
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
xj

5
5
5
5
5
5
5
5
5
6
6
6
7
8
8
8
8
9
6

T1
130
110
080
310
320
486
629
682
963
270
472
892
505
139
088
983
829
009
605

6
6
6
6
6
6
6
7
6
7
7
8
9
9
9
9
10
10
7

T2
410
680
820
600
800
738
696
359
743
524
871
236
005
212
494
986
340
265
932

8
8
8
8
7
7
7
7
7
7
8
8
9
9
9
9
10
10
8

T3
T4
080
5 900
350
5 910
190
5 990
090
6 020
650
6 110
258
6 111
491
6 494
836
6 583
844
6 692
997
6 853
188
7 207
978
7 561
591
8 608
522
8 816
583
9 204
907
9 457
070
9 669
236 10 458
603
7 425

xn
e
6 380,00
6 512,50
6 520,00
6 505,00
6 470,00
6 398,25
6 577,50
6 865,00
6 810,50
7 161,00
7 434,50
7 916,75
8 677,25
8 922,25
9 092,25
9 583,25
9 727,00
9 992,00
7641; 39

6
13
19
26
32
38
46
54
61
71
81
95
112
124
136
153
165
179

ne
xn
380,00
025,00
560,00
020,00
350,00
389,50
042,50
920,00
294,50
610,00
779,50
001,00
804,25
911,50
383,75
332,00
359,00
856,00

Pour chacune des annes et chacun des trimestre, il est possible de calculer des moyennes : aussi, la moyenne pour
1963 tait de 6380, et de 7435 pour 1973, et de faon analogue, la moyenne pour le premier trimestre est de 6605, et
de 8603 pour le troisime. La moyenne totale est alors de 7641, pour ces 72 observations. Aussi, N = 18 (on a 18
annes dobservations), et la pente de la droite de la tendance est donne par
"
#
N
X
3
N
(N
+
1)
3
b 2 =
ne
xn
x =
[1 419 019-1 306 678] t 57:97
N (N 2 1)
2
18 (18 2 1)
n=1

35

Sries temporelles : thorie et applications

Arthur CHARPENTIER

en utilisant les moyennes par trimestre, et par anne, donnes dans le tableau ci-dessus, et
8
b
>
1 = 6605 35 57:97 t 4577
>
>
< b
2 = 7932 36 57:97 t 5845
bj = xj [j + 2 (N 1)] b et donc
2
b
>
3 = 8603 37 57:97 t 6459
>
>
: b
4 = 7425 38 57:97 t 5222
do nallement

(
Aussi, le modle scrit

8
b1 = 4577 5526
>
>
>
< b
2 = 5845 5526
soit
b
>
3 = 6459 5526
>
>
: b
4 = 5222 5526

h
i
b 1 = b1 + b
2 + b3 + b
4 =4 t 5526
bj = b
j b
1

t 949
t +320
t +933
t 304

bt = 5526 + 58t 949S1t + 320S2t + 933St3 304St4 :


X

Estimation sous E V iews

La rgression se fait sur le modle non-contraint, en ne prenant pas en compte la constante,


LS // Dependent Variable is SNCF
Sample: 1963:1 1980:4
Included observations: 72
Variable
TEMPS
TRIMESTRE1
TRIMESTRE2
TRIMESTRE3
TRIMESTRE4

Coefficient

Std. Error

T-Statistic

57.96749
4576.527
5845.337
6458.592
5221.846

3.138733
170.4094
172.4495
174.5222
176.6264

18.46844
26.85607
33.89593
37.00728
29.56436

R-squared
0.874440
Adjusted R-squared 0.866943
S.E. of regression 552.7023
Sum squared resid 20467147
Log likelihood
-554.2395
Durbin-Watson stat 0.807306

Prob.
0.0000
0.0000
0.0000
0.0000
0.0000

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

7641.389
1515.211
12.69655
12.85466
116.6518
0.000000

La lecture de la sortie donne eectivement les mmes rsultats numriques que les calculs prsents ci-dessus. Toutefois,
il est ais de voir que ce modle est dicile retenir, compte tenu du fait que les rsidus ne semblent pas i:i:d:
12000
10000
8000
2000

6000

1000

4000

0
-1000
-2000

64

66

68

70

72

Residual

74

Actual

76

78

80

Fitted

Lerreur de modlisaiton (les rsidus ) est, en moyenne, beaucoup trop importante au dbut, ainsi quau milieu (dbut
des annees 70), mais lerreur se faisant ici dans lautre sens. Le caractre non-i:i:d: des rsidus pouvait tre devine
la lecture des sorties de la rgression, grce au test de Durbin Watson, qui valide le caractre AR (1) des rsidus.
36

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La srie ajuste (ci-dessous gauche) correspond la srie

bt
avec (Zt ) en trait plein, et X

bt = Xt "t =
X

m
X

Zti i +

i=1

n
X

S t j;

j= 1

en pointills. Cette srie pourra tre prolonge an de faire de la prvision. La srie

corrige des corrections saisonnires (CVS -ci-dessous droite ) correspond la srie


Ybt = Xt Sbt =

m
X

Zti i + "t:

i=1

Pn

Remarque 13 La composante saisonnire St correspond j=1 Stj j , telle quelle apparat dans le modle contraint.
Elle vrie alors E (St) = 0. Cette proprit nest pas vrie dans le modle sans constante.

12000

11000
10000

10000
9000

8000

8000
7000

6000
6000

4000
64

66

68

70

TENDANCE

3.4.2

72

74

76

78

5000

80

64

66

SAISONNALITE

68

70

72

SNCF_CVS

74

76

78

80

SNCF

Analyse sur donnes mensuelles

La mthode dcrite ci-dessus donne les rsultats suivants


1963
1964
1965
1966
1967
1968
1969
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
xj

JAN
1750
1710
1670
1810
1850
1834
1798
1854
2008
2084
2081
2223
2481
2667
2706
2820
3313
2848
2195

FEB
1560
1600
1640
1640
1590
1792
1850
1823
1835
2034
2112
2248
2428
2668
2586
2857
2644
2913
2101

M AR
1820
1800
1770
1860
1880
1860
1981
2005
2120
2152
2279
2421
2596
2804
2796
3306
2872
3248
2309

AP R
2090
2120
2190
1990
2210
2138
2085
2418
2304
2522
2661
2710
2923
2806
2978
3333
3267
3250
2555

M AY
1910
2100
2020
2110
2110
2115
2120
2219
2264
2318
2281
2505
2795
2976
3053
3141
3391
3375
2489

JUN
2410
2460
2610
2500
2480
2485
2491
2722
2175
2684
2929
3021
3287
3430
3463
3512
3682
3640
2888

J UL
3140
3200
3190
3030
2880
2581
2834
2912
2928
2971
3089
3327
3598
3705
3649
3744
3937
3771
3249

AU G
2850
2960
2860
2900
2670
2639
2725
2771
2738
2759
2803
3044
3118
3053
3095
3179
3284
3259
2928

SEP
2090
2190
2140
2160
2100
2038
1932
2153
2178
2267
2296
2607
2875
2764
2839
2984
2849
3206
2426

OC T
1850
1870
1870
1940
1920
1936
2085
2136
2137
2152
2210
2525
2754
2802
2966
2950
3085
3269
2359

N OV
1630
1770
1760
1750
1670
1784
1856
1910
2009
1978
2135
2160
2588
2707
2863
2896
3043
3181
2205

DEC
2420
2270
2360
2330
2520
2391
2553
2537
2546
2723
2862
2876
3266
3307
3375
3611
3541
4008
2861

qui donne les coecients suivants


b
2
9:82

b1
1038

b
2
943

b3
1156

b4
1380

b5
1293

b
6
1667
37

b
7
1938

b
8
1517

b
9
1135

b
10
1123

b11
975

b
12
1618

en
x
2127
2171
2173
2168
2157
2133
2192
2288
2270
2387
2478
2639
2892
2974
3031
3194
3242
3331
2547

Sries temporelles : thorie et applications

Arthur CHARPENTIER

3.5

janv-79

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

janv-70

janv-69

janv-68

janv-67

janv-66

janv-65

janv-64

janv-79

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

1000

janv-70

1500

1000

janv-69

2000

1500
janv-68

2500

2000

janv-67

3000

2500

janv-66

3500

3000

janv-65

4000

3500

janv-64

4500

4000

janv-63

4500

janv-63

Ce qui donne la srie ajuste ( gauche) et la srie corrige des variations saisonnires ( droite)

Proprits statistiques des estimateurs

Sous lhypothse E ("t ) = 0 les estimateurs mco sont sans biais :




E b
i = i et E b
j = j :
La variance des estimateurs peut tre estime par
"

b
Z 0Z Z 0S

2
Vb
=s
S0Z S0S

; o s2 =

t=1

ce qui permet dobtenir des intervalles de conance sur les estimateurs.

3.6
3.6.1

T
X
1
"b2t ;
T nm

Prvision un horizon h
Calcul de la prvision

Soit h 1. On suppose que le modle reste valide en T + h cest dire que


XT +h =

m
X

ZTi +h i +

i= 1

n
X

STj +h j + " T + h;

j=1

avec E (" T +h ) = 0, V ("T +h ) = 2 et cov ("t ; "T +h ) = 0 pour t = 1; :::; T . La variable XT +h peut tre approche par
b T (h) =
X

m
X
i=1

ZTi +h b i +

n
X

j=1

STj + h b
j :

Cette prvision est la meilleur (au sens de lerreur quadratique moyenne) prvision, linaire en X1 ; :::; XT et sans
biais. Un intervalle de conance de cette prvision est de la forme
h
p
p i
bT (h) 1 =2 b
bT (h) + 1=2 b
X
eh ; X
eh ;
o 1=2 est le quantile dordre de la loi de Student T m n degrs de libert, et o
ebh

0
1
h
m
n
i2
X
X
b X
b T (h) XT +h
b@
= E
=V
ZTi + h b
i +
STj +h b
j "T +h A
=

b
jb
0

Vb

" #
b

b
+ s2:

38

i=1

j=1

Sries temporelles : thorie et applications

3.6.2

Arthur CHARPENTIER

Application au trac SNCF

Dans lexemple considr prcdemment, en donnes mensuelles, considrons dsormais lensemble des donnes entre
janvier 1970 et dcembre 1980, et considrons le modle suivant
11
12
Xt = 2 t + St1 1 + St2 2 + St3 3 + St4 4 + St5 5 + St6 6 + St7 7 + St8 8 + St9 9 + S10
t 10 + St 11 + St 12 + "t

Lestimation par la mthode des moindres carrs donne lestimation suivante


b
2
9:82

b1
1038

b
2
943

b3
1156

b4
1380

b5
1293

b
6
1667

b
7
1938

avec les estimations dcart-types suivantes (obtenues sous EViews) :

b
8
1517

b
9
1135

b
10
1123

4500

LS // Dependent Variable is SNCF


Sample: 1970:01 1980:12
Included observations: 132 after adjusting endpoints

4000

Variable Coefficient

Std . Error T-Statistic Prob.

TEMPS
MOIS01
MOIS02
MOIS03
MOIS04
MOIS05
MOIS06
MOIS07
MOIS08
MOIS09
MOIS10
MOIS11
MOIS12

0.316040
61.85432
62.08883
62.32406
62.55999
62.79664
63.03398
63.27200
63.51071
63.75009
63.99014
64.23084
64.47220

3500
3000
2500
2000

R-squared
0.932001
Adjusted R-squared 0.925144
S.E. of regression 137.7877
Sum squared resid 2259269.
Log likelihood
-830.6514
Durbin-Watson stat 1.284049

1500
70

71

72

73

74

75

76

77

78

79

9.820391
1038.316
943.3138
1156.312
1380.400
1292.943
1667.396
1938.121
1516.664
1135.480
1122.751
975.1121
1618.201

80

SNCF

31.07324
16.78647
15.19297
18.55321
22.06522
20.58937
26.45233
30.63157
23.88045
17.81143
17.54568
15.18137
25.09920
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic )

b11
975

b
12
1618

0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
0.0000
2793.386
503.6128
9.944720
10.22863
135.9186
0.000000

Comme le montre la sortie ci-dessus droite, tous les paramtres sont signicatifs, le R 2 est relativement bon (93%),
la statistique de Fisher F est susement grande pour valider le modle. La courbe de gauche ci-dessous correspond
la prvision du nombre de voyageurs pour 1982 et 1983; et l.intervalle de conance de cette prvision.est donn
droite,
5000

4500
4000

4000
3500

3000

3000
2500

2000
2000

1000

1500

70 71 72 73 74 75 76 77 78 79 80 81 82

70 71 72 73 74 75 76 77 78 79 80 81 82
SNCF

SNCFF

SNCFF

2 S.E.

A 95%, lintervalle de conance correspond la prvision 145 (soit prvision 5%). Si cette prvision est aussi
robuste, cest aussi parce que lon a restreint lintervalle dtude 1970 1980, en enlevant les premires annes. Les
rsidus ainsi obtenus sont reprsents ci-dessous
4500
4000
3500
3000
2500
400

2000

200

1500

0
-200
-400
-600
70 71

72

73 74

75 76

Residual

77

Actual

39

78 79
Fitted

80

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dsaisonnalisation par la mthode des moyennes mobiles

On considre une srie temporelle (Xt) admettant une dcomposition


Xt = Zt + St + "t pour t = 1; :::; T
Le but est de trouver une transformation du processus Xt qui annule la composante saisonnire St : on cherche un
ltre tel que Y t = (Xt) = Zt + "t .
Lutilisation des moyennes mobiles est relativement ancienne puisquelle remonte Poynting (1884) puis Hooker
(1901) qui, les premiers, ont tent doter (et de distinguer ) la tendance et la composante cyclique pour des sries
de prix en considrant des moyennes glissantes. En 1930, Macauley a introduit une mthode pour dsaisonnaliser
les sries au sein de la Rserve Fdrale amricaine, base sur lutilisation de moyennes mobiles centres dordre 12,
pour obtenir une estimation de la tendance. Dans les annes 50, le bureau du Census aux Etats Unis a commenc
developper des modles bass sur lutilisation de moyennes mobiles, modles qui ont abouti la mthode X11 en
1965.
Cette mthode a pu tre dveloppe grce aux dveloppements informatiques importants qui ont eu lieu cette
poque. Une des implications est que des dcisions, faisant habituellement appel au jugement de lutilisateur, ont pu
tre en grande partie automatises. De plus, linformatique a facilit lutilisation de rgressions visant corriger les
eets de jours ouvrables (nombre de jours travaills dans le mois ).
En 1975, suite au dveloppement des modles ARIM A (conscutif la publication des travaux de Box et Jenkins
dans les annes 70), le modle X11 a pu voluer vers le modle dit X11-ARIMA.
Le graphique ci-dessous rsume lvolution des mthodes de dsaisonnalisation, montrant la dirence entre modles
paramtriques (rgression linaire - chapitre prcdant) et les modles non-paramtriques,
METHODES DE DESAISONNALISATION
METHODES NON PARAMETRIQUES
(mthodes de rgression locale)

METHODES PARAMETRIQUES

REGRESSIONS GLOBALES
Buys-Ballot (1847)

MOYENNES MOBILES
Slutsky (1927) - Macauley (1930)
MEDIANES MOBILES
MODELE X11-CENSUS
Bureau du Census (1965)

S.A.B.L. (1982)
LOWESS (1979)
S.T.L. (1990)

MODELES ARIMA
Box & Jenkins (1970)

MODELE X11-ARIMA
Statistique Canada (1975/1988)

S.E.A.T.S. (1980)
S.T.A.M.P. (1987)

MODELE X12-ARIMA
(1994)

La mthode de Buys-Ballot, bas sur une regression globale du modle a t prsent dans la partie prcdante. Nous
allons prsenter dans cette partie les mthodes bases sur des rgressions locales. Les rgressions locales consistent
ajuster des polynmes, en gnral par les moindres carrs, sur des intervalles glissants (se dcallant chaque fois
dun point). Au centre de cette intervalle, la donne lisse est la valeur, cette date, du polynme ajust. Ces
rgressions locales reviennent appliquer des moyennes mobiles.

4.1
4.1.1

Gnralits sur les moyennes mobiles


Notion doprateur retard L

Dnition 16 On appelera oprateur retard L (=lag, ou B =backward) loprateur linaire dni par
L : Xt 7! L (Xt) = LXt = Xt1 ;
et oprateur avance F (=forward)
F : Xt 7! F (Xt ) = F Xt = Xt+1 ;
40

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 14 L F = F L = I (oprateur identit) et on notera par la suite F = L 1 et L = F 1 .


Polynmes doprateurs L
(i) Il est possible de composer les oprateurs : L2 = L L, et plus gnrallement,
o p 2 N

Lp = L
::: L}
| L {z
p fo is

avec la convention L0 = I. On notera que Lp (Xt) = Xtp :


(ii) Soit A le polynme, A (z) = a0 + a1 z + a2 z 2 + ::: + ap z p . On notera A (L) loprateur
2

A (L) = a0I + a1 L + a2 L + ::: + ap L =

p
X

ak Lk :

k=0

Soit (Xt ) une srie temporelle. La srie (Yt ) dnie par Y t = A (L) Xt vrie
Y t = A (L) Xt =

p
X

ak Xtk :

k=0

Par passage la limite, on peut aussi dnir des sries formelles


A (z) =

1
X

ak z k et A (L) =

k=0

1
X

ak Lk :

k=0

Proprit 9 Pour toutes moyennes mobiles A et B, alors


8
< A (L) + B (L) = (A + B) (L)
2 R, A (L) = (A) (L)
:
A (L) B (L) = (AB) (L) = B (L) A (L) :

La moyenne mobile C = AB = BA vrie alors


1
! 1
! 1
!
i
X
X
X
X
k
k
i
ak L

bkL
=
ciL
o ci =
ak b ik :
k=0

4.1.2

i=0

k=0

k=0

Les moyennes mobiles

Dnition 17 Une moyenne mobile est un oprateur linaire, combinaison linaire doprateurs retard
M =

m2
X

i=m 1

iLi ; o m 1 ; m2 2 N,

qui peut scrire


M = Lm 1

m1
+m2
X

im 1L i = Lm1

i=0

m1
+m 2
X

i m1 F i = L m1 (F ) ;

(10)

i=0

o (:) est un polynme appel polynme caractristique de M , de degr m1 + m 2 , et m 1 + m2 + 1 sera appel


ordre de M (correspondant au nombre (thorique) de terme de M ).
Dnition 18 Si m1 = m 2 = m, la moyenne mobile sera dite centre. De plus, si M est centre, et que pour tout
i, i = i alors la moyenne mobile est dite symtrique.
Exemple 18 La moyenne mobile M1 (Xt ) = (Xt + Xt1 ) =2; soit M 1 = (L + I) =2 = L [I + F ] =2 est de degr 1,
dordre 2 et nest pas centre (ni symtrique).

Exemple 19 La moyenne mobile M2 (Xt ) = (Xt+1 + 2Xt + Xt1 ) =4; soit M 2 = L 1 + 2I + L =4 = L I + 2F + F 2 =4


est de degr 2, dordre 3, est centre et symtrique.

41

Sries temporelles : thorie et applications

Arthur CHARPENTIER

On peut dj noter, pour les moyennes centres symtriques, sont ncessairement dordre impair (pour tre centres). Pour m impair, on considrera les moyennes mobiles dordre m = 2p + 1 dnie par
Mm (Xt) =

1
[Xtp + Xtp+1 + ::: + Xt1 + Xt + Xt+ 1 + ::: + Xt+p1 + Xt+p ] :
m

Exemple 20 La moyenne mobile dordre 3 - Cette moyenne mobile a pour coecients 1=3; 1=3; 1=3,
M3 (Xt ) =

1
[Xt 1 + Xt + Xt+1 ] :
3

Exemple 21 La moyenne mobile dordre 9 - Cette moyenne mobile a pour coecients 1=9; 1=9; :::; 1=9,
M9 (Xt ) =

1
[Xt 4 + Xt3 + ::: + Xt + ::: + Xt+4 ] :
9

Les deux moyennes prcdentes sont reprsentes sur les graphiques dessous,
MOYENNE MOBILE ORDRE 9

MOYENNE MOBILE ORDRE 3


SINUS - PERIODE 24

RUPTURE

MOYENNE MOBILE

MOYENNE MOBILE

SAISONNALITE (12)

SAISONNALITE (6)

SINUS - PERIODE 24

MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

MOYENNE MOBILE

MOYENNE MOBILE

SAISONNALITE (12)

SAISONNALITE (6)

MOYENNE MOBILE

MOYENNE MOBILE

Toutefois, il est possible de construire des moyennes mobiles centres et symtriques dordre pair, de faon articielle. Pour cela, pour m = 2p on considrera les moyennes mobiles dnies par
Mm (Xt) =

1
Xtp+1=2 + ::: + Xt1=2 + Xt+ 1=2 + ::: + Xt+p 1=2 ;
m

o Xt 1=2 est obtenue comme valeur intermdiaire entre Xt 1 et Xt. Cette moyenne mobile peut donc se rcrire

1 1
1
1
1
M m (Xt) =
(Xtp + Xt p+1 ) + ::: + (Xt 1 + Xt) + (Xt + Xt+1 ) + ::: + (Xt+p1 + Xt+p )
m 2
2
2
2

1 1
1
=
Xt p + Xtp+1 + ::: + Xt1 + Xt + Xt+1 + ::: + Xt+p 1 + Xt+p :
m 2
2
1
[X T11/ 2 + X T1/ 2 + X T+1/ 2 + X T +1+1/ 2 ]
5
1 1
1

YT = X T 2 + X T 1 + X T + X T +1 + X T+ 2
5 2
2

YT =

XT+2

XT+1

XT+2+1/2 =[XT+2+ XT+3]/2


XT+3

T-5

T-4

T-3

T-2

T-1

42

T+1

T+2

T+3

T+4

T+5

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Cette moyenne mobile dordre pair est en fait une moyenne mobile dordre impair, que lon notera M 2p , dnie par
1
[Xt p + 2Xtp+1 + ::: + 2Xt1 + 2Xt + 2Xt+1 + ::: + 2Xt+p 1 + Xt+p ] :
2m
Exemple 22 La moyenne mobile 2 4 - Cette moyenne mobile permet permet destimer des tendances dans le cas
de donnes trimestrielles, el le est dordre 5 et de coecients 1=8; 1=4; 1=4; 1=4; 1=8
M 2p (Xt ) =

1
[Xt2 + 2Xt1 + 2Xt + 2Xt+1 + Xt+2 ] :
8
Comme nous le verrons par la suite, elle limine les saisonnalits trimestrielles des sries trimestriel les, elle conserve
les tendances linaires, et elle rduit de 75% la variance dun bruit blanc.
M24 (Xt ) =

Exemple 23 La moyenne mobile 2 12 - Cette moyenne mobile permet permet destimer des tendances dans le
cas de donnes mensuelles, elle est dordre 13 et de coecients 1=24; 1=12; 1=12; :::; 1=12; 1=24
1
[Xt6 + 2Xt5 + 2Xt4 + ::: + 2Xt+ 5 + Xt+6 ] :
24
Comme nous le verrons par la suite, elle limine les saisonnalits annuelles des sries mensuelles, elle conserve les
tendances linaires, et elle rduit de plus de 90% la variance dun bruit blanc.
M24 (Xt) =

Les deux moyennes prcdentes sont reprsentes sur les graphiques dessous
MOYENNE MOBILE ORDRE 2x12

MOYENNE MOBILE ORDRE 2x4


SINUS - PERIODE 24

RUPTURE

SAISONNALITE (12)

MOYENNE MOBILE

MOYENNE MOBILE

SINUS - PERIODE 24

MOYENNE MOBILE

SAISONNALITE (6)

RUPTURE

MOYENNE MOBILE

SAISONNALITE (12)

MOYENNE MOBILE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

MOYENNE MOBILE

Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

janv-70

janv-69

janv-68

janv-67

janv-64

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

1000
janv-70

1500

1000
janv-69

2000

1500

janv-68

2500

2000

janv-67

3000

2500

janv-66

3500

3000

janv-65

4000

3500

janv-64

4000

janv-66

Moyenne mobile 2x12

janv-65

Moyenne mobile 2x4

Exemple 24 La moyenne mobile 33 - Cette moyenne mobile est dordre 5 et de coecients 1=9; 2=9; 3=9; 2=9; 1=9
1
[Xt2 + 2Xt1 + 3Xt + 2Xt+1 + Xt+2 ] :
9
Exemple 25 La moyenne mobile 3 9 - Cette moyenne mobile est dordre 11 et de coecients 1=27; 2=27; 3=27;
3=27; :::; 3=27; 2=27; 1=27
M33 (Xt ) =

1
[Xt 5 + 2Xt4 + 3Xt3 + 3Xt2 + 3Xt1 + ::: + 3Xt+4 + 2Xt+4 + Xt+5 ] :
27
Ces deux moyennes mobiles conservent les droites, et rduisent respectivement de 75% et de 90% la variance dun bruit
blanc.
M 39 (Xt) =

43

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

janv-70

janv-69

janv-68

janv-67

janv-65

janv-64

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

1000
janv-70

1500

1000
janv-69

2000

1500
janv-68

2500

2000

janv-67

3000

2500

janv-66

3500

3000

janv-65

4000

3500

janv-64

4000

janv-66

Moyenne mobile 3x11

Moyenne mobile 3x3

Exemple 26 Les moyennes mobiles dHenderson - Ces moyennes mobiles sont utilises dans la mthode X11
pour extraire la tendance dune estimation de la srie corrige des variations saisonnires (partie (4:4:2)). Ces
P 3 2
moyennes reposent sur lutilisation de loprateur H =
i o est loprateur dirence premire (Xt =
Xt Xt 1 ). Cette quantit est nulle dans le cas o les i se retrouvent sur une parabole : H mesure la distance entre
la forme parabolique et la forme de la fonction dnissant les i . Hendersen a cherch les moyennes mobiles centres,
dordre impair, conservant les polynmes de degr 2, et minimisant la fonction H :
min

sous constraintes

+p
X

i= p

i = 1,

+p
X

ii = 0 et

i=p

+p
X

i 2 i = 0;

i=p

ce qui donne les expressions explicites de i, en posant n = p + 2


h
i
i
h

2
2
315 (n 1) i 2 n2 i2 (n + 1) i2 3n2 16 11i 2
i =
:
8n (n2 1) (4n2 1) (4n2 9) (4n2 25)
Cette relation permet dobtenir un certain nombre de moyennes mobiles
5 termes : M5 (Xt) =
7 termes : M7 (Xt ) =

1
[21Xt2 + 84Xt1 + 160Xt + 84Xt+1 21Xt+2 ] ;
286

1
[42Xt3 + 42Xt 2 + 210Xt1 + 295Xt + 210Xt+1 + 42Xt+2 42Xt+ 3] :
715

Les deux moyennes prcdentes (5 et 7 termes) sont reprsentes sur les graphiques ci-dessous
MOYENNE MOBILE HENDERSON - 5
SINUS - PERIODE 24

RUPTURE

MOYENNE MOBILE

MOYENNE MOBILE

SAISONNALITE (12)

SAISONNALITE (6)

MOYENNE MOBILE HENDERSON - 7


MOYENNE MOBILE

SINUS - PERIODE 24

RUPTURE

MOYENNE MOBILE

44

MOYENNE MOBILE

MOYENNE MOBILE

SAISONNALITE (12)

SAISONNALITE (6)

MOYENNE MOBILE

MOYENNE MOBILE

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

janv-70

janv-69

janv-68

janv-67

janv-65

janv-64

janv-78

janv-77

janv-76

janv-75

janv-74

janv-73

janv-72

janv-71

1000
janv-70

1500

1000
janv-69

2000

1500

janv-68

2500

2000

janv-67

3000

2500

janv-66

3500

3000

janv-65

4000

3500

janv-64

4000

janv-66

Moyenne mobile Hendersen - ordre 23

Moyenne mobile Hendersen - ordre 7

Les courbes ci-dessous montrent la forme de lvolution des coecients i

0.5

0.5

0.4

0.4

0.4

0.3

0.3

0.3

0.2

0.2

0.2

0.1

0.1

0.1
0

0
-12

-9

-6

-3

-12

12

-6

-3

Moyenne mobile de Hendersen -13 termes

0.4
0.3
0.2
0.1
0
-9

-6

-3

-9

-6

-3

12

Moyenne mobile de Hendersen - 23 termes

0.5

0.5

0.4

0.4

0.3

0.3

0.2

0.2

0.1

0.1

-12

-12

12

-0.1

Moyenne mobile de Hendersen - 7 termes


0.5

-0.1

-9

-0.1

-0.1

4.1.3

Moyenne mobile de 3 x5

Moyenne mobile de 3x3

Moyenne mobile de 2x4


0.5

12

0
-12

-9

-6

-3

12

-0.1

-12

-9

-6

-3

12

-0.1

Lespace des oprateurs moyenne-mobile

Dnition 19 Soient M1 et M2 deux moyennes mobiles. Le produit de M 1 et M 2 est obtenu par composition des
moyennes mobiles
M1 M 2 (Xt ) = M 1 M 2 (Xt ) :
Proprit 10 Ce produit est commutatif et associatif
M1 M2 = M 2 M 1 et M 1 (M 2 M 3 ) = (M 1 M 2 ) M 3 :
De plus, le produit est distributif par rapport laddition.
Proprit 11 Lensemble des moyennes mobiles constitue un espace vectoriel.
Proprit 12 La compose de deux moyennes mobiles symtriques est symtrique.

4.2

Vecteurs propres associs une moyenne mobile

Dnition 20 Soit M une moyenne mobile. Sil existe et (Xt) non nul tels que M (Xt) = Xt , (Xt) sera vecteur
propre associ la valeur propre .

45

Sries temporelles : thorie et applications

4.2.1

Arthur CHARPENTIER

Les sries absorbes : = 0

Dnition 21 Une suite (X t) est dite absorbe par M si et seulement si M (Xt) = 0 pour tout t.
Exemple 27 Soit M la moyenne mobile dnie par M (Xt ) = Xt + Xt 1 + Xt 2 . La srie chronologique dnie
rcursivement par Yt = [Y t1 + Y t2 ] est absorbe par M .
Proprit 13 Les vecteurs propres associs la valeur propre = 0 forment un espace vectoriel de dimension
m 1 + m 2 , dont une base est constitue des Ztk = (k rt ) pour k = 0; 1; :::; p 1, o r est racine non nulle du polynme
.
Exemple 28 Dans lexemple (27), on peut chercher construire une base de la forme Zt = rt , qui devra satisfaire
rt + r t1 + rt 2 = 0 pour tout t
cest dire r2 + r + 1 = 0. Aussi, r est une racine du polynme caractristique de M si et seulement si
p

1 i 3
2i
2i
r=
soient r1 = exp
et r2 = exp
2
3
3
Aussi, les suites absorbes sont ncessairement de la forme
Xt = r1t + r2t ; pour tout t:
Or

rt1 = cos (2t=3) + i sin (2t=3)


rt2 = cos (2t=3) i sin (2t=3) :

Et donc, lespace vectoriel des suites absorbes par M admet pour base relle
n

o
B = cos 2t
; sin 2t
;
3
3

ce qui correspond des sries chronologiques de la forme




Xt = cos 2t
+ sin 2t
pour tout t:
3
3
4.2.2

Absorbtion de la composante saisonnire

Thorme 3 Une moyenne mobile M absorbe la composante saisonnire de priode T si et seulement si son polynme
caractristique est divisible par 1 + z + ::: + z T 1 :
Preuve. Par dnition de la priodicit des composantes saisonnires, si T est la priode, les St sont les suites
solutions de
S t+1 + ::: + St+ T = 0 pour tout t 2 Z
Lespace vectoriel des solutions est engendr par les suites (rt ) o r satisfait

1 + r + r2 + ::: + r T 1 = 0, cest dire r = exp 2ik


o k = 1; :::; T 1
T
4.2.3

Les sries invariantes : = 1

Dnition 22 Une suite (X t) est dite invariante par M si et seulement si M (Xt) = 0 pour tout t
Une suite (Xt) est dite invariante par M si elle est absorbe par (M I) :
Proprit 14 (i) Les suites constantes sont invariantes par M si et seulement si la somme de ses coecients vaut 1;
(ii) Les polynmes de degr k sont invariantes par M si et seulement si 1 est racine dordre au moins k + 1 de
= (z) z m1 ;, o M = Lm 1 (F ) ;
(iii) Si M est symtrique et conserve les constantes, alors M conserve les polynmes de degr 1:

46

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Preuve. En reprenant (10) ; on peut crire


M =

m2
X

i Li = Lm 1 (F ) :

i= m1

(i) Si xt = k 6= 0 pour tout t, alors M x t = x t (suite invariante) se rcrit


m2
X

i
i k = k;

i=m 1

avec k non nul, donc la somme des coecients vaut 1.


(iii) Soit Xt la suite telle que Xt = t. Alors
M Xt

m1 (t m 1 ) + ::: + m 1 (t + m 1 ) = t (m 1 + ::: + m1 ) + m1 ( m1 + m1 )
+ (m 1 1) ( m1+1 + m 11 ) + ::: + 1: ( 1 + 1 ) + 0: 0 ;

soit M Xt = t:1 + 0 = t = Xt par symtrie ( k = k ).


Les proprits (i) et (iii) montrent dans quel cas la tendance de la srie reste invariante : ces sries peuvent servir
enlever la composante saisonnire, pour rcuprer la tendance linaire.
4.2.4

Transformation de suites gomtriques (rt )

Proprit 15 Soit M = Lm1 (F ) une moyenne mobile de polynme caractristique . Alors toute suite (rt ) est
vecteur propre de M associ la valeur propre = r m1 (r) :
Preuve. De (10) ; on peut crire
m2
m2
X
X

M rt =
i rt+i = r tm1
i ri+m1 = rt r m1 (r) ;
i= m1

i= m1

et donc M (rt ) = r m1 (r) r t pour tout t, ce qui correspond la dnition dlments propres.
Suites gometriques relles Si r est rel alors lapplication dune moyenne mobile la suite gomtrique (rt )
revient faire une homothtie de rapport rm 1 (r).
Suites gomtriques complexes
r m1 (r) = (!) ei(!) ,

Si r = ei! alors appliquer M revient multiplier r t par le nombre complexe


r t = te i!t
M rt = t ei!t (!) ei(!) = [ (!) t] ei[!t+(!)] ;

ce qui correspond un eet dchelle (le module faisant intervenir le coecient (!)) comme dans le cas rel, mais
aussi un eet de phase puisque largument se voit a jouter un lment (!).
Exemple 29 Une suite de la forme t sin !t sera transforme par M en [ (!) t] sin [!t + (!)],

=1, >1 et =0

1.5

1.5

0.5

0.5

-0.5

-0.5

-1

-1

-1.5

-1.5

-2

-2

47

=1, =1 et 0

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Proprit 16 Si M est symtrique, alors leet de phase sur la suite gomtrique ei!t est soit = 0 soit = :

P
i!k
Preuve. Ce rsultat se montre en explicitant M e i!t et en notant que m
est rel. Si ce rel est
k= m jjje
positif, alors = 0 et sil est ngatif = .

Remarque 15 Ce rsultat ne marche que pour la suite gomtrique ei!t et devient faux pour 6= 1, mme pour
une moyenne mobile symtrique.
4.2.5

Moyenne mobile dirence p = (I L)

Considrons comme moyenne mobile loprateur dirence p = (I L) p pour p > 0. Cette moyenne mobile transforme un polynme
de degr k p en une constante. En eet, appliquer 1 revient abaisser le degr du polynme

de 1, car 1 tk = tk (t 1)k , polynme de degr k 1, et recursivement, appliquer p = p1 revient abaisser le
degr du polynme de p.
Une telle moyenne mobile permet dliminer
une tendance qui serait un plynome de bas degr. Nous allons tudier

ici son eet sur une suite de la forme ei!t .


Cas p = 1

!
(I L) ei!t = ei!t ei!(t1) = ei!t 1 ei! = e i! :2 sin :ei[ !]=2
2
soit (!) = 1 (!) = 2 sin (!=2) et (!) = 1 (!) = [ !] =2.

Cas p 1

p
X
j
p = (I L) =
(1) j Lj
p
p

j= 0

donc

X
p e i!t =
j=0

j
p

p
! i p ip[ !]=2
j
(1) e i!j = ei!t 1 ei! = ei!t :2p sin
e
2

soit (!) = p (!) = [2 sin (!=2)]p et (!) = p (!) = p [ !] =2 o ! 2 [0; ]


8
7

6
5
4
3

1
0

/3

Le graphique ci-dessus, reprsentant le facteur dchelle en fonction de ! montre que

si ! =3, le facteur dchelle dcrot avec p


si ! =3, le facteur dchelle crot avec p
Le dphasage est dautant plus grand aux basses frquences (! petit ) que p est plus lev : pour un cycle trimestriel13 (! = 2=3) lamplitude est augmente, alors que pour des cycles semi-annuels (! = =3)
lamplitude est inchange.
1 3 En considrant des donnes mensuelles T = 12 : ! = 2=12 correspond 12 mois, ! = 2=12 2 = =3 correspond 6 mois,
! = 2=12 4 = =3 correspond 3 mois...etc.

48

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 30 Considrons la srie de cycle =3


Xt
1 X t
2 X t
3 X t
4 X t
5 X t

2
1
1
2
1
1

1
1
2
1
1
2

1
2
1
1
2
1

2
1
1
2
1
1

1
1
2
1
1
2

1
2
2
1
1 1
1 2
2 1
1
1

1
1
2
1
1
2

1
2
1
1
2
1

2 1
1
1
1
2
2
1
1 1
1 2

1
2
1
1
2
1

Comme on peut le noter, suite ne change pas damplitude, elle est juste dphase.
Exemple 31 Considrons la srie de cycle =2
Xt
1 X t
2 X t
3 X t
4 X t
5 X t

1
1
0
2
4
4

0
1
2
2
0
4

1
1
0
2
4
4

0
1
2
2
0
4

1
1
0
2
4
4

0 1
1 1
2
0
2
2
0
4
4
4

0
1
2
2
0
4

1
1
0
2
4
4

0 1
1 1
2
0
2
2
0
4
4
4

0
1
2
2
0
4

On retrouve l aussi un dphage, avec un coecient damplitude qui augmente avec p. On peut ainsi noter que
4 Xt correspond 4 fois la srie initiale Xt; avec un dphasage puisque les valeurs positives deviennent ngatives, et
inversement.
Exemple 32 Considrons la srie de cycle =6, alors, comme le montre les graphiques ci-dessous ( gauche Xt et
1 Xt ; et droite 2 Xt et 4 Xt ), on retrouve l aussi un dphage, avec un coecient damplitude qui diminue avec
p.
4.00

4.00

3.00

3.00

2.00

2.00

1.00

1.00

0.00

0.00

-1.00

-1.00

Xt

-2.00

-2.00

-3.00

-3.00

-4.00

-4.00

4.00

4.00

3.00

3.00

2.00

2.00

1 X t

1.00

4 X t

1.00

0.00

0.00

-1.00

-1.00

-2.00

-2.00

-3.00

-3.00

-4.00

4.2.6

2 X t

-4.00

Moyenne mobile dirence saisonnire p;s = (I Ls )p

Cette moyenne mobile permet dabsorber les composantes saisonnires de priode s.

p;s ei!t = ei!t 1 ei!sp ;


alors

p;s (!) = 2p [sin !s=2]


p;s (!) = p [ !s] =2:

En considrant des donnes mensuelles, et une composante saisonnire annuelle (priode 12) et s = 12, alors p;12 (2=12) =
0. On retrouve ainsi le fait que cette moyenne mobile p;12 limine une composante saisonnire de priode 12. Toutefois, les saisonnalits de priodes 8 mois, ou 24 mois sont amplies.
4.2.7

Moyenne mobile impaire

Une moyenne mobile dordre impair peut scrire


M =

q
X

j=q

j Lj o q 2 Nnf0g et j =

49

1
:
2q + 1

Sries temporelles : thorie et applications

On peut montrer que

Arthur CHARPENTIER

sin [(q + 1=2) !]


M ei!t = ei!t
;
(2q + 1) sin [!=2]

(dmonstration en exercice ) do

sin [(q + 1=2) !]

:
(!) =
(2q + 1) sin [!=2]

La moyenne mobile tant symtrique, le dphasage est 0 ou (selon les valeurs de !).
4.2.8

Moyenne mobile paire

Une moyenne mobile dite dordre impair peut scrire


M =

q
X

j=q

On peut montrer que

(dmonstration en exercice ) do

j Lj o q 2 Nnf0g et j =

1=2q pour jjj 6= q


1=4q sinon.

sin [q!]
M ei!t = e i!t
cotan
;
2q
2

!
sin [q!]

:
(!) =
cotan
2q
2

Pour des donnes mensuelles, par example, on prend q = 6, et

!
sin [6!]

;
(!) =
cotan
12
2

qui sannule en =6; 2=6; 3=6; 4=6; 5=6... correspondant des priodes 12; 6; :::.
Remarque 16 La moyenne mobile dordre pair avec q = 6 absorbe les composantes saisonnires priodiques de
priodes 12 (et les harmoniques), tout en conservant les basses frquences (correspondant la tendance). Cette moyenne
mobile est appele M2 12 dans la partie (4:4:2) sur la mthode X11:

1.2
1
0.8
0.6
0.4
0.2
0

/6

2/6

3/6

-0.2
-0.4

Exemple 33 Les graphiques ci-dessous reprsentent, gauche, la moyenne mobile 2 6 et droite, la moyenne

50

Sries temporelles : thorie et applications

Arthur CHARPENTIER

mobile 2 12
MOYENNE MOBILE ORDRE 2x12

MOYENNE MOBILE ORDRE 2x6


SINUS - PERIODE 24

RUPTURE

SAISONNALITE (12)

MOYENNE MOBILE

MOYENNE MOBILE

MOYENNE MOBILE

SAISONNALITE (6)

SINUS - PERIODE 24

RUPTURE

MOYENNE MOBILE

MOYENNE MOBILE

MOYENNE MOBILE

SAISONNALITE (12)

SAISONNALITE (6)

MOYENNE MOBILE

MOYENNE MOBILE

La premire permet de faire disparatre la saisonnalit semi-annuel le (priode 6 - en bas droite), et la seconde, la
saisonnalit annuelle (priode 12 - en haut droite). On peut galement noter, pour la sinusode de priode 24; que
plus lordre de la moyenne mobile est important, plus lamplitude diminue.

4.3

Notion de bruit blanc

De la mme faon que pour la notion de stabilit, il existe deux faon de dnir le bruit blanc,
Dnition 23 On appelera bruit blanc faible toute suite ("t ; t 2 Z) telle que E ("t ) = 0 et V (" t) = 2 pour tout
t 2 Z et tel que
(h) = cov ("t ; "th ) = 0 pour h 6= 0:
Dnition 24 On appelera bruit blanc fort toute suite (" t; t 2 Z) telle que ("t ) soit i:i:d:

Remarque 17 On notera par la suite (" t) s BB 0; 2 pour bruit blanc faible.


4.3.1

Transformation dun bruit blanc

Proprit 17 Soit M la moyenne mobile dnie par (10) et ("t ) s BB 0; 2 pour t 2 Z. Le processus Xt = M ("t )
est stationnaire, centr (E (Xt ) = 0), tel que
X
h


m2
X
1
X (h) z = M (z) M
o M (z) =
iz i pour z 6= 0:
z
h

i= m1

Preuve. Le caractre centr dcoule de lcriture


Xt =

m2
X

j "t+j ,

o (" t) est centr.

j= m1

Il est possible de prolonger cette somme sur Z en posant j = 0 pour j < m 1 ou j > m 2 . Aussi
Xt Xt+h =

+1
X

j= 1

j "t+j

+1
X

k "t+ h+k = 2

k=1

et donc
E (Xt Xt+h ) = 2

+1
X

+1
X

j k " t+j " t+h+k ;

j;k=1

j k = 2

+1
X

j=1

k+h=j

Ainsi E (XtXt+h ) = cov ("t ; " t+h ) qui ne dpend que de h.

51

j j h:

Sries temporelles : thorie et applications

Arthur CHARPENTIER

On peut alors crire


X

X (h) z h

+1
X

+1
X

j jh z h = 2

h=1 j= 1

+1
X

jzj

j=1

+1
X

+1
X

+1
X

j j h zj z hj

h= 1 j= 1
+1
X

jh z hj = 2

h=1

jzj

j=1

+1
X

i=1

1
;
zi

en eectuant le changement dindice i = j h.


A retenir 3 Le but des moyennes mobiles est
(i) dabsorber les composantes saisonnires en laissant invariantes les tendances,
(ii) de rduire la variance des perturbations.
Dnition 25 Lindice de rduction de la moyenne mobile M est donn par

X
E M Xt2
=
=
2j :
2
E (Xt )
j
Exemple 34 Dans le cas dune moyenne mobile dnie par M (Xt) = [Xt + Xt1 ] =2, alors = 1=2.

4.4
4.4.1

Les procdures X11 et X12


Un algorithme simple de dsaisonnalisation

Considrons une srie mensuelle Xt compose dune tendance Zt, dun cycle saisonnier St, et dune perturbation "t ,
de faon additive Xt = Zt + St + "t :Lalgorithme suivant, en 4 tapes, permet de dsaisonnaliser la srie Xt
(1)
(1) Estimation de la tendance par moyenne mobile Zt = M (Xt ) ;o la moyenne mobile M est choisie de faon
reproduire au mieux la tendance, tout en liminant la composante saisonnire, et en rduisant la perturbation au
maximum
(1)
(1)
(2) Estimation de la composante saisonnire et de la perturbation t = S t +
"t : t = Xt Zt ;
( 1)

(1)

(1)

(1)

( 1)

(3) Estimation de la composante saisonnire par moyenne mobile St = M 0 t


et " t = t St . Il sagit
ici de lisser les valeurs de la composante t de chaque mois pour extraire lvolution du coecient saisonnier du mois
concern. La moyenne mobile M 0 utilise ici devra reproduire la composante saisonnire de chaque mois en rduisant
au maximum la composante irrgulire. Une contrainte de normalisation des coecients devra tre impose (somme
nulle).

bt = Z (1) + "(1) = Xt S (1) .


(4) Estimation de la srie corrige des variations saisonnires X
t

La dicult ici est donc de bien choisir les deux moyennes mobiles utiliser M et M 0 .

4.4.2

Lalgorithme de base de la mthode X11

Cette mthode propose deux moyennes mobiles dans le cas de donnes mensuelles. Lalgorithme devient
(1) Estimation de la tendance-par moyenne mobile 2 12
Zt(1) = M 2 12 (Xt ) ;
Cette moyenne mobile est paire, avec q = 6. Aussi, les 13 coecients sont 1=24; 1=12; 1=12; :::; 1=12; 1=24. Cette
moyenne mobile conserve les tendances linaires, limine les saisonnalits dordre 12 et minimise la variance de la
perturbation.
(2) Estimation de la composante saisonnire et de la perturbation t = S t + "t
(1)

(1)

= X t Zt ;

(3) Estimation de la composante saisonnire par moyenne mobile 3 3 sur chaque mois

(1)
(1)
( 1)
(1)
( 1)
St = M 33 t
et "t = t St :

52

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La moyenne mobile utilise ici est une moyenne mobile sur 5 termes, dite 33, dont les coecients sont 1=9; 2=9; 3=9; 2=9; 1=
qui conserve les composantes linaires. Les coecients sont alors normaliss de telle sorte que leur somme, sur toute
une priode de 12 mois, soit nulle.

b( 1) = S ( 1) M 212 S (1) ;
S
t
t
t
(4) Estimation de la srie corrige des variations saisonnires

b (1) = Xt Sb(1) :
X
t
t

Cette premire estimation de la srie corrige des variations saisonnires doit, par construction, contenir moins de
saisonnalit.
(5) Estimation de la tendance par moyenne mobile de Henderson sur 13 termes

(2)
bt :
Zt = M 13 X

Si les moyennes mobiles dHenderson nont pas de proprits spciales quant llimination de la saisonnalit, mais
elles lissent relativement bien, tout en conservant (localement ) les polynmes dordre 2.
(6) Estimation de la composante saisonnire et de la perturbation t
(2)

(2)

= X t Zt ;

(7) Estimation de la composante saisonnire par moyenne mobile 3 5 sur chaque mois

(2)
(2)
( 2)
(2)
( 2)
St = M 35 t
et "t = t St :

La moyenne mobile utilise ici est une moyenne mobile sur 7 termes, dite 35, dont les coecients sont 1=15; 2=15; 3=15; 3=1
qui conserve les composantes linaires. Les coecients sont alors normaliss de telle sorte que leur somme, sur toute
une priode de 12 mois, soit nulle.

b(t 2) = S (t 2) M 212 St(2) ;


S
(8) Estimation de la srie corrige des variations saisonnires

b (2) = Xt Sb(2) :
X
t
t

Remarque 18 Cette mthode permet de reprer les points abrants dune srie.
Comme lont montr Gouriroux et Monfort (1990), cet algorithme peut se rsumer lapplication dun unique
moyenne mobile qui peut tre explicite matriciellement. Les 8 points de lalgorithme scrivent
(1)

(1) Zt = M212 (Xt )


( 1)
(1)
(2) t = Xt Z
t =(I M 212 ) (Xt )
(1)

(4)
(5)
(6)
(7)
(8)

(1)

= M (3) (I M 212 ) (Xt )

(1)
2
=
M2 12 St
= M (3) (I M 212 ) (Xt )

b (1) = Xt Sb(1) = I M (3) (I M 212 )2 (Xt )


X
t
t

(2)
bt = M13 I M (3) (I M 2 12 )2 (Xt )
Zt = M13 X

(t 2) = Xt Zt(2) = I I M (3) (I M 212 )2 (Xt )

(2)
(2)
(2)
Sbt = St M2 12 St
= (I M 212 ) M ( 5) I M (3) (I M 2 12 )2 (Xt )

b (2) = Xt Sb(2) = I (I M 212 ) M (5) I M (3) (I M212 )2


X
(Xt)
t
t

(3) St

(1)
Sbt

= M33 t
(1)
St

o M (3) est la moyenne mobile dnie sur 49 mois, dont les coecients sont
f1=9; 0; 0; :::; 0; 2=9; 0; ::::; 0; 3=9g
et M ( 5) est la moyenne mobile dnie sur 73 mois, dont les coecients sont

f1=27; 0; 0; :::; 0; 2=27; 0; ::::; 0; 3=27; 0; 0; :::; 0; 3=27g


La moyenne mobile ainsi dnie est dordre 169, cest dire quen toute rigueur, il faudrait 84 observations, soit 7
ans de part et dautre pour pouvoir estimer ce ltre.
53

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 19 Un algorithme similaire existe pour des donnes trimestrielles, qui peut l aussi scrire sous la forme
dune seule moyenne mobile, portant sur 28 trimestres de part et dautre (7 ans l aussi). Dans le cas trimestriel,
lallure des coecients i est la suivante

-23 -20 -17 -14 -11

4.4.3

-8

-5

-2

10

13

16

19

22

Amlioration de la mthode : X11 ARIM A et X12 ARIM A

La mthode X12 ARIM A est fonde sur le mme principe que X11. Elle dcompose la srie selon un schma
additif (ou multiplicatif ) : tendance + cycle saisonnier + ala irrgulier. Les composantes sont obtenues lissue dun
processus itratif bas sur des lissages laide de moyennes mobiles1 4 .
Toutefois, la mthode X11 dcrite dans la partie prcdente pose des problmes en dbut et en n de srie. Une
des solutions est alors dutiliser un modle de type ARIM A pour faire de la prvision de la srie, et ainsi mieux
sajuster sur les bornes de lintervalle dtude. La mthode la plus simple pour prolonger les sries (X11 tel que le fait
SAS) est dutiliser des moyennes mobiles asymtriques, en particulier les moyennes mobiles de Musgrave. Toutefois,
les observations les plus rcentes sont moins ables que les donnes au centre.
Lextension X11 ARIM A (1975) puis X12 ARIM A a rsolu en partie ces problmes : la srie initiale est
modlise par un processus ARIM A, puis prolonge au dbut et la n. Lerreur quadratique des estimation est
ainsi minimise.
De plus des amliorations ont t ajoutes, par exemple pour prendre en compte de la saisonnalit non-rgulire.
En particulier il est possible de prendre en compte leet Pques, observ dans certaines srie. Pques est une fte ne
tombant pas la mme date tous les ans. De nombreux modles mathmatiques ont t mis en place pour prvoir
lavance la date des jours de Pques15 . Entre 1900 et 2100, le jour de Pques tombera ainsi entre le 22 mars et le 25
avril. Or cette fte entrane gnrallement un changement en niveau dans un certain nombre dactivit ( cause du
Vendredi Saint, et du Lundi de Pques fri ), et ceci a des rpercusions soit en mars, soit en avril (pour des donnes
mensuelles), soit au premier, soit au second semestre (pour des donnes trimestrielles ). Cet eet Pques a pu ainsi
tre mis en vidence sur des ventes en grande surface (chocolat, eurs ), mais aussi sur des nombres de mariages. Il
aura aussi un impact si lon considre des donnes mensuelles, obtenues comme agrgation de donnes journalires,
puisquil faudra intgrer une pondration fonction du nombre de jours ouvrables.
4.4.4

Utilisation de la mthode X11 et comparaison avec les modles ARIM A saisonniers

Larticle de Cleveland et Tiao Decomposition of Seasonal Time Series : a model for the Census X11 program (1976)
tudie sur des cas simples lapplication de la mthode X11.
1 4 Dans le cas dun schma multiplicatif : une moyenne mobile dordre 12 (donnes mensuelles ) fournit une premire estimation de la
tendance. La srie initiale est alors divise par cette estimation pour donner des rapports SI (saisonnalit/irrgulier). On applique alors
une moyenne mobile 3 3 (par exemple) chaque mois pour liminer la composante irrgulire.
1 5 Voir Gardner Mathematical Games (1981), Scientic American (Fvrier 81) pour plus dinformation sur les dirents algorithmes.

54

Sries temporelles : thorie et applications

4.4.5

Arthur CHARPENTIER

Exemple simple inspir de la mtho de X11

Considrons ici une srie trimestrielle St1 , observe sur 12 ans, et reprsente ci-dessous gauche,
300

300

280

280

260

260

240

240

220

220

200

200

180

180

160

160

90

91

92

93

94

95

96

97

98

99

00

01

90

91

92

93

94

95

96

S1

S1

97

98

99

00

01

S2


Appliquons cette srie un ltre moyenne mobile de faon dsaisonnliser la srie : St2 = M 22 S 1t , reprsente
ci-dessus droite. La srie ainsi obtenue est alors tudie attentivement an
de reprer des points abrants. Pour cela,
on considre la composante saisonnire, St3 = S 1t S2t = St1 M 22 St1 . An de dnir une courbe de rfrence,
considrons la srie de type Buys-Ballot associe, cest dire dnie par la moyenne des composantes saisonnires. S 4t
prend alors 4 valeurs, suivant la valeur de t [4] :
8 3

3
+ S 3199201 + ::: + S200101
>
> S199101
=11 si t est au premier trimestre
<
3
3
3
S
+
S
+
:::
+
S
4
199102
199202
200102
3
=11 si t est au deuxime trimestre
St =
3
3
S
+
S
+
:::
+
S
>
199003
199103
200003
>
=11 si t est au troisime trimestre
: 3
3
S199004 + S 3199104 + ::: + S200004
=11 si t est au quatrime trimestre
Les deux composantes saisonnires ainsi dnies sont reprsentes ci-dessous gauche, ainsi que la dirence St5 =
St4 St3 , droite
80

30

60

20

40

10

20
0
0
-10

-20
-40

-20
90

91

92

93

94

95

96

S3

97

98

99

00

01

90

91

92

93

94

95

96

97

98

99

00

01

S5

S4


En se xant un seuil a priori, on peut reprer trois points abrants, au sens o St5 est relativement grand. Ces
points seront alors exclus de lchantillon : on remplace St1 = S 2t +S 3t par St7 = S2t + St4 pour les trois valeurs abrantes
repres. La comparaison entre St1 et St7 est prsente ci-dessous gauche. Cette srie, corrige des valeurs aberrantes,
est alors liss
300

300

280

280

260

260

240

240

220

220

200

200

180

180

160

90

91

92

93

94

95
S1

96

97

98

99

00

160

01

90

91

92

93

94

95
S1

S7

96

97

98

99

00

01

S8

Le graphique ci-dessous gauche compare la srie lisse obtenue sur la srie brute (en trait plein ), et sur la srie corrige
des valeurs aberrantes (en pointills ). A partir de srie lisse, S8t , on peut en dduire la composante saisonnire, comme

55

Sries temporelles : thorie et applications

Arthur CHARPENTIER

dirence avec la srie initiale, St9 = S 1t St8 . Comme le sugre le graphique ci-dessous droite, il est possible de lisser
cette srie an de dgager la vraie composante saisonnire :
80

230

60
220

40
20

210

0
200

-20
190

90

91

92

93

94

95
S2

96

97

98

99

00

-40

01

90

91

92

93

94

S8

95

96

S9

97

98

99

00

01

S10

Comme le montre le graphique ci-dessus, gauche, lutilisation du lissage par moyenne mobile permet de reprer des
points extrmes et aberrants (au sens statistiques, car ils peuvent avoir une explication exogne : mto, campagnes
de publicit...etc.), et en corrigeant la srie initiale en excluant ces points, on peut mieux lisser la srie.

4.5

Description du modle T RAMO/SEAT S

Le modle T RAM O=SE AT S 1 6 est bas sur lutilisation des modles ARIM A, et a t dvelopp par Maravall et
Gomez, suite lalgorithme de Burman en 1980: Lalgortihme est alors le suivant :
1) un modle ARIM A est a just automatiquement
2) les points aberrants sont identis : ces deux procdures sont faites par le module T RAM O
3) le module SE AT S calcule la densit spectrale de la srie linarise (par le modle ARIM A)
4) la srie est dcompose en un cycle et une tendance saisonnire : utilisation du ltre de Wiener-Kolmogorov17
Les hypothses sont que la srie linarise qui est traite par SEAT S peut scrire Zt = St + Nt , o les deux
composantes sont indpendantes : les deux sries suivent des modles ARIM A (inconnu) dont les poslynmes
autorgressifs respectifs nont pas de racine commune.
Parmi les algorithmes rcents de dsaisonnalisation, on peut rsumer la littrature suivant le schma suivant
RECHERCHE DES COMPOSANTES DE SERIES TEMPORELLES

MODELES
IMPLICITES

MODELES
EXPLICITES

X11, X11-ARIMA, SABL

MODELES
STOCHASTIQUES
GLOBAUX

MODELES
DETERMINISTES
LOCAUX
BV4, DAINTIES

MODELES
STRUCTURELS

MODELES
ARIMA

STAMP

SEATS

1 6 T RAMO

signie T ime series Regression with ARIMA noise, Missing observations and Outliers.
ltre WK est dtaill dans Applied Time Series Analysis : M odelling, Forecasting, Unobserved Components Analysis and the
Wiener-Komlmogorov Filter de C. Planas (1997)
1 7 Le

56

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Les prvisions sont diciles, surtout lorsquelles concernent lavenir.


Jacques Chirac, Le Figaro - Fvrier 1993

La prvision par lissage exponentiel

Les mthodes de lissages consistent extrapoler une srie en vue de faire de la prvision. Or comme on le voit sur
lexemple ci-dessous, une extrapolation simple (linaire en loccurence) dpend fortement du type de rsultats que lon
cherche avoir : prvision court, moyen, ou long terme
CT
MT

LT

Ces trois mthodes dirent suivant le poids que lon accorde aux observations passes.

5.1

Principe du lissage exponentiel simple

On dispose de N observations X1 ; :::; XN : On souhaite prvoir, la date T = 1; :::; N , la valeur un horizon 1, ou


un horizon quelconque h.
b T (h) fournie par la mthode de lissage exponentiel simple, avec la constante de lissage
Dnition 26 La prvision X
, 0 < < 1 est
T
1
X
b T (h) = (1 )
X
j XT j
j=0

On donne un poids dautant moins important que les observations sont loins (dans le pass), avec une dcroissance
exponentielle :
- proche de 1 : prise en compte de tout le pass
- proche de 0 : prise en compte davantage des valeurs rcentes (plus sensible aux uctuations )

b T (h) ne dpend pas de h, dont X


b T (h) = X
bT . Cette valeur X
b T est la
Remarque 20 Si ne dpend pas de h, X
b
prvision faite en T de la valeur en T + 1. Nous appelerons cette srie XT (srie lisse la date t) ou F T +1 (valeur
prdite pour la date T + 1).
Remarque 21 Pour certains logiciels permettant de faire du lissage exponentiel, la constante de lissage nest pas
mais = 1 .

57

Sries temporelles : thorie et applications

5.1.1

Arthur CHARPENTIER

Mthode adaptative de mise jour (ordre 1)

Proprit 18 Mthode adaptative de mise jour (ordre 1)

bT = X
b T 1 + [1 ] XT X
bT 1
X
=

Cette relation scrit galement

(11)

bT 1 = XT + [1 ] X
b T 1
[1 ] XT + X
FT +1 = XT + (1 ) FT

bT peut tre vu comme une rgression sur une constante, avec des pondrations exponentielles
Proprit 19 X
Preuve. Le programme de minimisation

min
c

admet pour solution

c=
b

bT = b
et pour T assez grand X
c:
5.1.2

8
1
< TX
j= 0

j (Xtj c)

9
=

(12)

T 1
1 X j
XT j
1 T j=0

(13)

Choix de la constante de lissage

Au del des mthodes qualitative de rigidit ou de souplesse du modle aux uctuations conjoncturelles, il est possible
dutiliser des mthodes de type minimisation de la somme des carrs des erreurs de prvison :
8
2
32 9
>
>
T
t1
<X
=
X j
b
4Xt+1 (1 )
= arg min
Xtj 5
>
>
: t =1
;
j=0
5.1.3

Lien entre robustesse de la prvision et choix de

Il nexiste pas de relation a priori entre lerreur de prvision et le paramtre .


Exemple 35 Soit (Xt ) un processus AR (1) de corrlation ; de variance 1, Xt = Xt1 + " t: Lerreur de prvision
horizon h est
h
T
1
i2
X
b
bT (h) = (1 )
(; ; h) = E XT +h XT (h)
avec X
j XT j
j= 0

On peut montrer que

2 (1 ) h h
2
(; ; h) =
+
1+
(1 + ) (1 )

Lerreur de prvision varie de la faon suivante en fonction de

=-0.5

2.5

Erreur de prvision horizon h=2

2.5

Erreur de prvision horizon h=1

3.5

=0.0
=0.4

1.5

=0.0

2
1.5

=-0.5
=0.7

=0.4
1

=0.7
0.5

0.5

=0.9

=0.9
0

0
0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

0.1

0.2

0.3

0.4

0.5

0.6

0.7

pour < 1=3, lerreur de prvision dcroit avec ; et pour > 1=3, lerreur crot avec :
58

0.8

0.9

Sries temporelles : thorie et applications

5.1.4

Arthur CHARPENTIER

Exemple dapplication

Considrons ici une srie de ventes dune entreprise, sur 18 mois


C:A: 98
C:A: 99

J AN
1293
1364

F EB
1209
1330

M AR
1205
1377

AP R
1273
1332

M AY
1220

J UN
1290

JU L
1243

AU G SE P
1203 1390

OC T
1360

N OV
1353

DE C
1343

En septembre, une modication structurelle (nouvelle unit de production) a provoqu un saut des ventes. Les
mthodes de lissage permettent defectuer de la prvision en intgrant ce genre de rupture. Une moyenne arithmtique
(non-pondre, note y) conduirait sous-estimer les valeurs futures : il est alors naturel dintroduire des poids plus
importants pour les valeurs rcentes. La prvision horizon 1 est alors
T 1
T
1
T
1
X
X
1 X
i
y T (1) =
yT i et ybT (1) =
[1 ] y T i =
[1 ] i yT i pour ; 2 ]0; 1[ et = 1
T i=0
i=0
i=0

cette dernire valeur tant obtenue par lissage exponentiel (simple). Nous noterons ici b
y1 ; :::; b
yT la srie lisse, et
F 1 ; :::; F T la srie des valeurs prdites.
Mise en place de lalgorithme ( x) Pour la premire valeur (T = 0), on considre comme valeur initiale une
moyenne des premires valeurs observes. EViews considre une moyenne sur les 8 premiers mois,
F1 = b
y0 =

1
(1293 + ::: + 1203) = 1242
8

Pour construire la srie lisse, x, on utilise la relation de mise jour


ybj = yj + (1 ) ybj1 ou Fj+1 = y j + (1 ) Fj

Avec comme constante de lissage = 0:3, on obtient

F2 = b
y1 = y1 + (1 ) F 1 = 0:3 1293 + 0:7 1242 = 1257:3

puis

F 3 = y 2 + (1 ) F2 = 0:3 1209 + 0:7 1257:3 = 1242:81

Comme on peut le voir, nous estimation pour la date 2 tait de 1257:3. Or la vraie valeur tait plus faible, savoir 1209.
Aussi, pour la date 3, la prvision sera une correction de ce 1257:3 en prenant en compte (avec un poids correspondant
la valeur ) lerreur qui avait t faite : en loccurence, F 3 sera plus faible que F 2 (la dirence tant [F2 y 2 ])
1
2
3
4
5

yj1
1293
1209
1205
1273
1220

F j1
1242:00
1257:30
1242:81
1231:47

Fj
1242:00
1257:30
1242:81
1231:47
1243:93

(puisque F j = yj1 + (1 ) Fj1 ) do nallement la srie lisse exponentiellement pour 1998


yj
ybj ( = 0:3)
ybj ( = 0:7)

J AN
1293
1242
1242

FEB
1209
1257
1278

M AR
1205
1243
1230

AP R
1273
1231
1212

M AY
1220
1244
1255

59

JU N
1290
1237
1230

JUL
1243
1253
1272

AUG
1203
1250
1252

SE P
1390
1236
1218

OCT
1360
1282
1338

N OV
1353
1305
1353

DE C
1343
1320
1353

Sries temporelles : thorie et applications

Arthur CHARPENTIER

1400

1350

1300

1250

1200
98:01

98:03

98:05
CA

98:07

98:09

LISSAGE07

98:11

99:01

99:03

LISSAGE03

On peut noter que plus est proche de 1, plus la courbe lisse colle aux donnes (b
y j est proche de y j ) : pour = 1,
la prvision F j+1 sera la dernire valeur observe (y j ). Un coecient de lissage plus faible (par exemple = 0:3)
permet en revanche de bien lisser les alas importants de la srie. La srie lisse sadapte galement au changement
de niveau observ en septembre. Toutefois, cette adaptation se fait dautant plus lentement que est faible : les
prvisions sont alors biaises (sous-estimation dans cet exemple) pendant la priode dadaptation, comme on peut le
voir sur le graphique ci-dessous : ds octobre 1998, la prvision faite avec un coecient de 0:7 avait atteint un niveau
correct, alors que la prvision avec une pondration de 0:3 est plus lente (ce qui rend la prvision moins sensible
un choc exogne : si cette variation en septembre navait t quun choc, une faible pondration aurait permis de ne
pas le prendre en compte).
On peut noter que le lissage dpend non seulement de mais aussi de la valeur initale choisie. Comme le montre
le graphique de gauche, on observe une convergence (asymptotique ), avec des valeurs trs proches pour T pro che
de 16. En choissant une valeur intiale proche des premires valeurs de la srie (b
y0 = y 1 ou yb0 moyenne des 2 ou 3
premires observations), on saperoit que la courbe observe et les courbes lisse sont quasiment confondues au bout
de 10 mois (cette valeur dpendant de : la convergence est dautant plus rapide que est grand ). Le graphique cidessous correspond plusieurs initialisations : F 1 = y1 (prvision parfaite - (1)), F1 = (y 1 + y2 ) =2 (moyenne des deux
premires valeurs - (2)), F1 = (y 1 + y 2 + y3 ) =2 (moyenne des trois premires valeurs - (3)) et F1 = (y1 + ::: + yn ) =n
(moyenne de lchantillon - (4))
1400

1350

CA
LISSAGE03_1
LISSAGE03_2
LISSAGE03_3
LISSAGE03_4

1300

1250

1200
98:01 98:03 98:05 98:07 98:09 98:11 99:01 99:03

Remarque 22 Il convient de faire attention : dans la littrature, les courbes lisses sont soit Ft , soit ybt1 . Certains
auteurs dcallent ainsi (dans les tableaux ou les graphiques) la courbe lisse.
A retenir 4 La formule itrative pour construire la srie lisse de Xt pour t = 1; :::; N est la suivante
8
< F 0 = X1 ou [X1 + ::: + Xp ] =p
F t+1 = Xt + (1 ) F t pour 0 t N
:
F t = F N+1 pour t N + 1

Choix de la constante de lissage Ce choix peut relever de considrations empiriques : des fortes pondrations
pour les valeurs rcentes ( lev) donne de meilleures prvisions court terme qu long terme. Toutefois, une des
mthodes les plus utilise est la minisation des moindres carrs des erreurs (prvision/ralisation ) un horizon h = 1.

60

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Lalgorithme (13) donne ici un paramtre = 0:418, qui correspond une somme des erreurs de prvision de 48178,
cest dire un cart type de lerreur valant 54:874.
1400

1350

1300

1250

1200
98:01

98:03

98:05

98:07

98:09

LISSAGEOPT

98:11

99:01

99:03

CA

Remarque 23 Lintervalle de conance de la prvision est alors de la forme

5.2

h
i

2
b T (h) 1:96 X C h o C 2 = 1 + 1
X
1 + 4 + 5 2 + 2h (1 ) (1 + 3) + 2h 2 (1 )
h
3
(1 + )

Principe de lissage exponentiel double

Le lissage exponentiel simple est adapt des sries pouvant tre ajuste par une constante au voisnage de T . Le
principe de lissage exponentiel double permet de faire un ajustement par une droite, savoir approcher Xt par Y t o
Y t = A + (t T ) B
La prvision horizon h scrit

b T (h) = A
b (T ) + h B
b (T )
FT +h = X

De mme que pour (12) le programme doptimisation pour estimer A et B scrit


8
9
1
< TX
=
2
min
j (XT j [A + (T j) B])
A;B :
;

(14)

j=0

Thorme 4 La solution de (14) est donne par

b (T ) = 2S1 (T ) S2 (T ) et B
b (T ) = 1 [S1 (T ) S2 (T )]
A

en posant

S1 (t) = (1 )

S2 (t) =

(1 )

t
X1

k= 0

(1 )2

t1
X

k=0

k Xtk = (1 ) Xt + S1 (t 1) (srie lisse)

k S1 (t k) = (1 ) S1 (t) + S2 (t 1) (srie lisse 2 fois)

t
X1 tk1
X

k=0

i+k Xt(k+i)

i=0

Preuve. Gouriroux et Monfort (1995) pages 110-111


5.2.1

Mthode adaptative de mise jour (ordre 1)

Pour obtenir la formule de mise jour ( lordre 1) permettant de passer de T T + 1, on peut utiliser le rsultat
suivant

61

Sries temporelles : thorie et applications

Arthur CHARPENTIER

bT (1) = A
b (T ) + B
b (T ), alors, en T + 1
Proprit 20 Si la date T , F T +1 = X
8
i

h
< Ab (T + 1) = 1 2 XT + 1 X
b T (1) + A
b (T ) + B
b (T )
h
i

: B
b (T + 1) = B
b (T ) + 1 2 XT + 1 X
b T (1)

(15)

Preuve. Gouriroux et Monfort (1995) pages 112-113


b T (1), on aurait A
b (T + 1) = A
b (T )+ B
b (T ) et B
b (T + 1) = B
b (T )
Dans le cas dune prvision parfaite, i.e. XT +1 = X
B (T )

X T (1)

A (T )

T+1

Dans ce cas, les droites de prvision en T et en T + 1 sont les mmes, et la pente, en particulier, est inchange
b (T + 1) = B
b (T )).
(B
Remarque 24 Lintervalle de conance de la prvision est alors de la forme
s
2
bT (h) 1:96 X
X
2 1
5.2.2

Application de la mthode de lissage exponentiel double

Considrons la srie suivante, correspondant un indice dactivit


1982
1983
1984
1985
1986
1987
1988

Trim 1

9680
10738
10869
11108
11437
11507

Trim 2
9050
10100
10910
11034
11115
11352
11453

Trim 3
9380
10160
11058
11135
11424
11381
11561

Trim 4
9378
10469
11016
10845
10895
11401

Le lissage exponentiel double est trs proche du lissage exponentiel simple, sauf que lon fait un a justement au
voisinage de T non plus par une constante, mais par une droite. En fait, la srie (correspondant un indice) est une
srie croissante : la justement par lissage exponentiel simple sous-estimerait les valeurs ralises (graphique page
5.2.2) . Le programme de minimisation scrit ici
8
9
1
< TX
=
2
min
j (Xt j [AT + BT (T j )])
A;B :
;
j=0

La prvision horizon h est alors b


yT (h) = AT + BT h. Trois formulations sont possibles pour crire la srie lisse
Formulation classique - Les coecients Aj et Bj sont donns par
Aj = 2b
y 1j b
yj2 et B j =

1
yb yb2j
1 j

o les ybj1 et ybj2 sont obtenus rcursivement par deux lissages conscutifs,
1
1
ybj = yj + (1 ) b
yj
1 : lissage exponentiel simple de yi
2
1
2
ybj = b
yj + (1 ) b
yj1 : lissage exponentiel simple de yb1i
62

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Formules de lissage direct - lerreur de lissage e j est donne par ej = y j b


yj = yj [Aj1 + Bj1 ], et donc
(
h
i
2
Aj = Aj 1 + Bj1 + 1 (1 ) ej
Bj = B j 1 + 2 e j

ce qui donne une relation permettant dobtenir rcursivement les Ai et les Bi .


Formules de mise jour - cette expression est en fait la mme que la prcdente, sauf que lon remplace lerreur
de prvision par la dernire observation y j ;

Aj = y j + (1 ) [Aj 1 + Bj1 ]
o = 1 (1 )2 et =
(16)
Bj = [Aj Aj1 ] + (1 ) Bj1
2
Remarque 25 Aj et Bj sont unitiliss pour calculer b
yj , prvision horizon 1 faite la date j , soit Fj+1 :

Encore une fois, linitialisation de lalgorithme est important. Une mthode possible est de considrer comme valeur
initiale pour A1 la premire valeur y1 . La pente B1 peut alors tre choisie comme la pente moyenne entre la date 1 et
une date t0 , telle que B1 = [y t0 y 1] =t0 .
Dans le cas qui nous intresse on obtient la srie lisse suivante, en prenant comme constante de lissage = 0:384,
et comme valeurs initiales de A0 = y 1 et B0 la pente sur une priode de 10 observations (soient 9050 et 177) - laide
de la relation (16) ; et = 0:6205 et = 0:2376
yj
9050
9380
9378
9680

1982 2
1982 3
1982 4
1983 1

1982
1983
1984
1985
1986
1987
1988

Srie observe
Trim 1 Trim 2 Trim 3

9050
9380
9680
10100
10160
10738
10910
11058
10869
11034
11135
11108
11115
11424
11437
11352
11381
11507
11453
11561

Aj
9050:00
9112:73
9332:05
9421:11

Trim 4
9378
10469
11016
10845
10895
11401

1982
1983
1984
1985
1986
1987
1988

12000

12000

11500

11500

11000

11000

10500

10500

10000

10000

9500

9500

9000

83

84

85

CA

86

87

Bj
165:30
140:93
159:56
142:81

Fj+1
9215:30
9253:66
9491:61
9563:92

Trim 1

9564
10646
11295
11023
11095
11461

Srie lisse
Trim 2 Trim 3
9215
9254
9796
10189
10932
11143
11138
11166
11118
11159
11364
11412
11541
11524

Trim 4
9492
10372
11303
11234
11405
11443

9000

88

83

LISS_DOUBLE

84

85
CA

86

87

88

LISS_SIMPLE

A titre de comparaison, nous avons ajout droite le lissage exponentiel simple optimal qui aurait t obtenu sur les
mmes donnes. Ce lissage simple est relativement mal adapat ce type de donnes (croissantes) puisque nous allons
continuellement sous-valuer la vraie valeur en priode de croissance forte.
Supposons que la srie ait t observe jusquau troisime trimestre de 1987: La srie lisse jusqu cette date
reste la mme, et les prvisions pour les trimestres suivant aurait t obtenus en utilisant A = A19873 = 11412,
B = B 19873 = 47:02, et b
yT (h) = A + Bh
1987-4
1988-1
1988-2
1988-3

ralisation
11401
11507
11453
11561

prvision (double)
11459
11506
11553
11600
63

prvision (simple)
11352
11352
11352
11352

Sries temporelles : thorie et applications

Arthur CHARPENTIER

ce qui est reprsent sur les graphiques ci-dessous,


11800
11600
11400
11200
11000
10800

85:1

85:3

86:1
CA

86:3

87:1

DOUBLE

87:3

88:1

88:3

SIMPLE

Les graphiques ci-dessous reprsentent limpact des valeurs initiales, avec gauche, un changement de A0 et droite un
changement de B0 . Comme on peut le remarquer, la justement se fait plus rapidement que pour le lissage exponentiel
simple
12000

12000

11500

11500
11000

11000

10500
10500
10000
10000

9500

9500

9000

9000

8500
83

84

85

86

CA
LISS_DOUBLE

87

88

83

LISS_A1
LISS_A2

84

85

CA
LISS_DOUBLE

86

87

88

LISS_B1
LISS_B2

A retenir 5 La formule itrative pour construire la srie lisse de Xt pour t = 1; :::; N est la suivante
8 1
>
> S02 = X1 ou [X1 + ::: + Xp ] =p
>
>
>
> S01 = 0
>
>
= Xt + (1 ) St1 pour 0 t N
>
> St+1
<
2
St+1 = St1 + (1 ) St2 pour 0 t N
1
2
>
0tN
> At +1 = 2St+1 S t+1 pour

>
1
2
>
>
B
=

S
=
(1
)
t+1
t+1
t+
1
>
>
>
>
F
=
A
+
B
pour
0
tN
t+1
t+1
t+1
>
:
Ft = AN +1 + (t N 1) BN+1 pour t N + 1

5.3

Lissage exponentiel multiple, ou gnralis

Cette gnralisation a t propose par Brown en 1962, permettant dajuster au voisinage de T une fonction plus
complexe quune fonction ane. La rsolution de ce problme repose sur la notion de vecteurs de fonctions matrice
de transition xe.
0

Dnition 27 Le vecteur f (t) = [f1 (t) ; :::; fn (t)] , o t 2 Z est dit matrice de transition xe sil existe une
matrice A rgulire telle que
f (t) = Af (t 1) pour tout t 2 Z
La mthode du lissage exponentiel gnralis consiste a juster au voisinage de T de la srie Xt une fonction
(t T ) de la forme
n
X
(t) =
i fi (t) o f (:) est matrice de transition xe
i=1

Cette classe de fonction (:) comprend la plupart des fonctions usuelles.

64

Sries temporelles : thorie et applications

Arthur CHARPENTIER

(1) Les fonctions constantes - (t) = c, obtenues avec f (t) = 1 et A = 1. Dans ce cas, on retrouve le principe
de lissage exponentiel simple,
0
(2) Les fonctions linaires - (t) = + t, obtenues avec f (t) = [1; t] de matrice de transition

1 0
1
1 0
1
A=
puisque
=
1 1
t
1 1
t 1
Dans ce cas, on retrouve le principe de lissage exponentiel double,
(3) Les fonctions polynmiales de degr p - Cette famille est obtenue en prenant comme base une base de
R p (X) (espace des polynmes de degr infrieur ou gal p). En particulier, on peut choisir la base

1
Bp = P k (t) = t (t 1) ::: (t k + 1) ; k = 1; :::; p + 1
k!
obtenue laide du triangle de Pascal, et dnie par rcurence par

P k (t) = P k1 (t 1) + P k (t 1) pour k > 1


Le vecteur f (t) = [P1 (t) ; :::; Pp+1 (t)] est alors de matrice de transition (xe)
2
3
1 0 0
0 0
6 1 1 0
0 0 7
6
7
6 0 1 1
0 0 7
6
7
7
.. . .
A= 6
6
7
.
.
6
7
6
.
.. 1 0 7
4 0 0 0
5
0 0 0
1 1

(4) Les fonctions sinusodales - Les fonctions (t) = sin !t + sin !t sont obtenues en prenant f (t) =
[sin !t; cos !t]0 , et dans ce cas

cos !
sin !
A=
sin ! cos !
(6) Les fonctions exponentielles - Les fonctions (t) = exp (t) sont obtenues en prenant f (t) = exp (t) et
dans ce cas A = exp ().
Cette mthode de lissage se met en place de la faon suivante.
De la mme faon que (14), le programme doptimisation scrit
8
9
1
< TX
=
2
min
j (Xtj f 0 (j) a)
(17)
a :
;
j=0

o la notation f 0 dsigne la transpose de f . Posons


2
3
2
3 2
3
XT
f 1 (0)
f n (0)
f 0 (0)

6
7
6
7 6
7
..
..
..
T 1
x = 4 ... 5 , F = 4
=
et
=
diag
1;
1=
;
:::;
1=
5
4
5
.
.
.
X1
f1 (T + 1)
f n (T + 1)
f 0 (T + 1)

Le programme (17) correspond la regression (linaire) de x sur les colonnes de F , associe la matrice de covariance
-. On en dduit que la solution (17) est unique, et est donne par

1 0
1
a (T ) = F 0 - 1 F
b
F -y = [M (T )] Z (T )
o

M (T ) = F 0 - 1 F =

T
1
X

j f (j) f 0 (j) et Z (T ) = F 0-y =

j=0

T
1
X
j=0

j f (j) XT j

La matrice M (T ) converge vers une matrice nie M quand T ! +1 : on peut estimer b


a (T ) en utilisant cette matrice
limite,
1
X
1
a (T ) = M Z (T ) avec M (T ) =
b
j f (j) f 0 (j)
j=0

Et la prvision horizon h faite la date T est

b T (h) = f 0 (h) b
X
a (T )
65

Sries temporelles : thorie et applications

5.3.1

Arthur CHARPENTIER

Mthode adaptative de mise jour (ordre 1)

Pour cela, notons que


Z (T + 1) = XT +1 f (0) + A 1 Z (T )
et on peut alors crire
que lon peut encore noter

ba (T + 1) = XT +1 M 1 f (0) + M 1 A1 M ba (T )

ba (T + 1) = XT +1 + b
a (T ) o

= M 1 f (0)
= M 1 A1 M

o les matrices et sont indpendantes de T . Cette relation peut se mettre sous la forme suivante, proche de (11),
h
i
b T (1)
ba (T + 1) = A0 b
a (T ) + XT + 1 X

5.4

5.4.1

Les mthodes de Holt-Winters (1960)


Mthode non saisonnire

Cette mthode est une gnralisation de la mthode de lissage exponentiel mais avec un point de vue dirent de celui
introduit dans le lissage exponentiel gnralis. De la mme faon que pour le lissage exponentiel double, lajustement
se fait de faon linaire au voinage de T , la nuance se faisant au niveau de formules de mise jour, direntes de (15)
:
8
h
i
< Ab (T + 1) = (1 ) XT +1 + A
b (T ) + B
b (T ) o 0 < < 1
h
i
(18)
: B
b (T + 1) = (1 ) A
b (T + 1) A
b (T ) + B
b (T ) o 0 < < 1
La premire relation est une moyenne pondre de deux informations sur A (T ), correspondant au niveau de la srie
b (T ) + B
b (T )): La seconde relation sinterprte comme
la date T : lobservation XT +1 et la prvision faite en T (A
une moyenne pondre de deux informations sur B (T ), correspondant la pente de la srie la date T : la dirence
entre les niveaux estims en T et T + 1; et la pente estime en T .
Toutefois, ces deux relations ne peuvent tre utilise quaprs initialisation, que lon fera gnralement de la faon
b (2) = X2 et B
b (2) = X2 X1 . La prvision horizon h faite la date T est donne par
suivante : A
bT (h) = A
b (T ) + hB
b (T )
X

Cette mthode peut tre vue comme une gnralisation du lissage exponentiel double, qui ne faisait intervenir
quun coecient, (ou ). Cette dernire mthode correspond au cas particulier
2

= 2 et = 1

(1 )
2
2 =
1
+
1

Exemple 36 Sur lexemple prcdant, on obtient


12000
11500
11000
10500
10000
9500
9000
83

84

85
CA

86
LISS_HW

66

87

88

Sries temporelles : thorie et applications

5.4.2

Arthur CHARPENTIER

La mthode saisonnire additive

On suppose ici que la srie (Xt) peut tre approche au voisinage de T par la srie
Yt = A + (t T ) B + St
o St est un facteur saisonnier. Les formules de mise jour scrire de la faon suivante, o s est le facteur de
saisonnalisation (ou le nombre de saisons : s = 4 pour des donnes trimestrielles ou s = 12 pour des donnes
mensuelles)
8
h
i
>
b (T + 1) = (1 ) [XT +1 ST +1 s] + A
b (T ) + B
b (T ) o 0 < < 1 (lissage de la moyenne)
>
A
>
<
h
i
b (T + 1) = (1 ) Ab (T + 1) A
b (T ) + B
b (T ) o 0 < < 1
B
(lissage de la tedance)
>
h
i
>
>
: SbT +1 = (1 ) XT +1 A
b (T + 1) + ST +1 s o 0 < < 1
(lissage de la saisonnalit)
et la prvision horizon h (1 h s) scrit

bT (h) = Ab (T ) + hB
b (T ) + S
bT + k+ s
X

La encore, le problme dinitialisation va se poser, et on peut prendre


8
b (s) = Ms (X1 ; :::; Xs ) o M s est une moyenne pondre
>
> A
>
< b
A (s + 1) = Ms (X2 ; :::; Xs+1 )
b (s + 1) = A
b (s + 1) A
b (s)
> B
>
>
: b
b
Si = Xi A (i)

Remarque 26 Le lissage exponentiel est utilisable sous EViews,

A gauche, on voit comment trouver loption de lissage exponentiel. EViews propose alors plusieurs mthodes (fentre
au centre) : lissage exponentiel simple, double, ou de Holt Winters. Les rsultats sont alors prsents sous la forme de
droite. EViews donne ici les paramtres (alpha) et (beta), ainsi que la variance de lerreur de prvision.

5.5

Exemple de mise en pratique des mthodes de lissage

Comme nous allons le voir ici, les mthodes de lissage, an de faire de la prvision, peuvent trs facilement tre mises
en oeuvre, en particulier sur des tableurs (Excel par exemple). Nous allons voir comment faire de la prvision sur des
donnes comportant de la saisonnalit, laide des mthodes de lissage exponentiel.

67

Sries temporelles : thorie et applications

5.5.1

Arthur CHARPENTIER

Prsentation des donnes

Les donnes sont mensuelles, et comportent une saisonnalit annuelle,


DATE

VENTES

DATE

VENTES

SAISONNALITE

VENTES CVS

Jan-99

2,853,123

MOYENNE

DIFFERENCE

SAISONNALITE
126,280

VENTES CVS
2,726,843

Jan-99

2,853,123

126,280

2,726,843

Feb-99

2,797,469

78,024

2,719,445

Feb-99

2,797,469

78,024

2,719,445

Mar-99

2,773,701

20,897

2,752,804

Apr-99
May-99

2,735,895
2,695,410

-62,580
-121,586

2,798,475
2,816,996

Mar-99
Apr-99

2,773,701
2,735,895

20,897
-62,580

2,752,804
2,798,475

May-99

2,695,410

-121,586

2,816,996

Jun-99

2,652,799

-169,498

2,822,297

Jun-99

2,652,799

-169,498

2,822,297

Jul-99
Aug-99

2,705,817
2,795,698

2,844,752
2,864,431

-138,935
-68,733

-138,159
-107,685

2,843,976
2,903,383

Sep-99

2,955,251

2,885,559

69,692

68,668

2,886,583

Oct-99
Nov-99

3,007,658
3,020,084

2,904,892
2,920,910

102,766
99,174

104,799
97,431

2,902,859
2,922,653

Dec-99

3,032,833

2,934,917

97,916

103,410

2,929,423

Jan-00
Feb-00

3,075,696
3,047,187

2,947,308
2,954,786

128,388
92,401

126,280
78,024

2,949,416
2,969,163

Mar-00

3,031,057

2,960,304

70,753

20,897

3,010,160

Apr-00
May-00

2,942,528
2,873,213

2,967,190
2,972,169

-24,662
-98,956

-62,580
-121,586

3,005,108
2,994,799

Jun-00

2,811,176

2,975,988

-164,812

-169,498

2,980,674

Jul-00
Aug-00

2,844,805
2,836,192

2,978,711
2,979,352

-133,906
-143,160

-138,159
-107,685

2,982,964
2,943,877

Sep-00

3,047,197

2,976,077

71,120

68,668

2,978,529

Oct-00
Nov-00

3,080,972
3,066,260

2,970,664
2,967,094

110,309
99,166

104,799
97,431

2,976,173
2,968,829

Dec-00

3,078,322

2,965,940

112,382

103,410

2,974,912

Jan-01
Feb-01

3,095,541
3,042,742

2,967,892
2,975,618

127,649
67,124

126,280
78,024

2,969,261
2,964,718

Mar-01

2,956,884

2,982,365

-25,481

20,897

2,935,987

Apr-01
May-01

2,886,788
2,843,283

2,983,808
2,984,021

-97,020
-140,738

-62,580
-121,586

2,949,368
2,964,869

Jun-01

2,813,409

2,984,116

-170,707

-169,498

2,982,907

Jul-01
Aug-01

2,889,432
2,976,979

-138,159
-107,685

3,027,591
3,084,664

Sep-01

3,068,328

68,668

Oct-01
Nov-01

3,094,477
3,057,867

Dec-01

3,088,998

Moyenne
Ecart-Type

2,932,641
133,328

MOBILE

Rapport

MOYENNE
MOBILE

DIFFERENCE

Jul-99

2,705,817

2,844,752

-138,935

-138,159

2,843,976

Aug-99

2,795,698

2,864,431

-68,733

-107,685

2,903,383

Sep-99

2,955,251

2,885,559

69,692

68,668

2,886,583

Oct-99

3,007,658

2,904,892

102,766

104,799

2,902,859

Nov-99

3,020,084

2,920,910

99,174

97,431

2,922,653

Dec-99
Jan-00

3,032,833
3,075,696

2,934,917
2,947,308

97,916
128,388

103,410
126,280

2,929,423
2,949,416

Feb-00

3,047,187

2,954,786

92,401

78,024

2,969,163

Mar-00

3,031,057

2,960,304

70,753

20,897

3,010,160

Apr-00

2,942,528

2,967,190

-24,662

-62,580

3,005,108

May-00
Jun-00

2,873,213
2,811,176

2,972,169
2,975,988

-98,956
-164,812

-121,586
-169,498

2,994,799
2,980,674

Jul-00
Aug-00

2,844,805
2,836,192

2,978,711
2,979,352

-133,906
-143,160

-138,159
-107,685

2,982,964
2,943,877

Sep-00

3,047,197

2,976,077

71,120

68,668

2,978,529

Oct-00
Nov-00

3,080,972
3,066,260

2,970,664
2,967,094

110,309
99,166

104,799
97,431

2,976,173
2,968,829

Dec-00
Jan-01

3,078,322
3,095,541

2,965,940
2,967,892

112,382
127,649

103,410
126,280

2,974,912
2,969,261

Feb-01
Mar-01
Apr-01

3,042,742
2,956,884
2,886,788

2,975,618
2,982,365
2,983,808

67,124
-25,481
-97,020

78,024
20,897
-62,580

2,964,718
2,935,987
2,949,368

May-01
Jun-01

2,843,283
2,813,409

2,984,021
2,984,116

-140,738
-170,707

-121,586
-169,498

2,964,869
2,982,907

2,999,660

Jul-01
Aug-01
Sep-01

2,889,432
2,976,979
3,068,328

-138,159
-107,685
68,668

3,027,591
3,084,664
2,999,660

104,799
97,431

2,989,678
2,960,436

Oct-01
Nov-01

3,094,477
3,057,867

104,799
97,431

2,989,678
2,960,436

103,410

2,985,588

Dec-01

3,088,998

103,410

2,985,588

2,932,641
85,190

Moyenne

4.546%

2.905%

2,932,641

2,932,641

Ecart-Type

133,328

85,190

Rapport

4.546%

2.905%

Pour lisser cette srie, nous avons utilis une moyenne mobile permettant dannuler une saisonnalit annuelle (priode
12) : M 212 . En particulier

1 1
1
M Xt =
Xt6 + Xt 5 + Xt4 + ::: + Xt + ::: + Xt+4 + Xt+ 5 + Xt+6
12 2
2
et ainsi, sur lexemple ci-dessus, on peut noter que

1 2 797 469
3 047 187
2 864 431 =
+ 2 773 701 + 2 735 895 + ::: + 2 795 698 + ::: + 3 032 833 + 3 075 696 +
12
2
2
La composante saisonnire est alors obtenue comme dirence entre la srie brute Xt et la srie dsaisonnalise
M Xt . Cette srie correspond dans le tableau ci-dessus la variable DIFFERENCE. Par exemple,
92 401 = 3 047 187 2 954 786
On considre alors la dirence moyenne pour chaque mois :
JAN
FEV

1 =
2 =

1
2
1
2

[(XJ AN00 M XJ AN00 ) + (XJ AN01 M XJ AN01 )]


[(XF EV 00 M XF EV 00 ) + (XF EV 01 M XF EV 01 )]

Par exemple, la dirence moyenne pour Septembre est


9 =

1
(69 692 + 71 120) = 70 406
2

On peut noter que la somme de ces dirences moyennes i ne vaut pas 0 : on va alors normaliser les i de faon
ce que leur somme soit nulle. On considre alors
i = i

12
1 X j

12
j=1

Dans lexemple considre, la somme des i valait 20 865 : aussi, on va dnir i = i 20 865=12. Cette srie i va
alors constituer la composante saisonnire de la srie (Xt). Par exemple, la saisonnalit pour le mois de mars est 62
68

Sries temporelles : thorie et applications

Arthur CHARPENTIER

580. Et partir de l, on construit la srie corrige des variations saisonnires (CV S) comme dirence entre (Xt ) et
la composante saisonnire du mois correspondant.
Cest partir de cette srie corrige des variations saisonnires que lon va faire de la prvision. La mthodologie
est alors la suivante. On spare la srie initiale (Xt) de la faon suivante :
Xt = Z t + t = srie CV S + composante saisonnire
et la prvision sera alors faite en considrant

bt = Z
bt + t
X

On extrapole la srie corrige des variations saisonnires (par lissage ), et on ra joute ensuite la composante saisonnire.
5.5.2

Lissage linaire

La mthode la plus simple pour faire de la prvision sur une srie dsaisonnalise est dutiliser une rgression linaire,
DATE

VENTES
2,853,123
2,797,469
2,773,701
2,735,895

SERIE
CVS
2,726,843
2,719,445
2,752,804
2,798,475

APPROX. ERREUR COMPOSANTE PREVISION


LINEAIRE
SAISONNIERE
(droite)
2,820,908 -94,064
126,280
2,947,187
2,827,417 -107,972
78,024
2,905,441
2,833,297 -80,493
20,897
2,854,194
2,839,806 -41,331
-62,580
2,777,226

Jan-99
Feb-99
Mar-99
Apr-99

ERREUR
PREVISION
PREVISION
(constante)
-94,064
3,058,921
-107,972
3,010,665
-80,493
2,953,538
-41,331
2,870,061

May-99
Jun-99
Jul-99
Aug-99
Sep-99
Oct-99
Nov-99
Dec-99
Jan-00
Feb-00
Mar-00
Apr-00
May-00

2,695,410
2,652,799
2,705,817
2,795,698
2,955,251
3,007,658
3,020,084
3,032,833
3,075,696
3,047,187
3,031,057
2,942,528
2,873,213

2,816,996
2,822,297
2,843,976
2,903,383
2,886,583
2,902,859
2,922,653
2,929,423
2,949,416
2,969,163
3,010,160
3,005,108
2,994,799

2,846,105
2,852,615
2,858,914
2,865,424
2,871,933
2,878,232
2,884,742
2,891,041
2,897,551
2,904,060
2,910,150
2,916,659
2,922,958

-29,110
-30,317
-14,938
37,960
14,650
24,627
37,911
38,382
51,866
65,103
100,010
88,449
71,840

-121,586
-169,498
-138,159
-107,685
68,668
104,799
97,431
103,410
126,280
78,024
20,897
-62,580
-121,586

2,724,520
2,683,116
2,720,755
2,757,738
2,940,601
2,983,031
2,982,173
2,994,451
3,023,830
2,982,084
2,931,047
2,854,079
2,801,373

-29,110
-30,317
-14,938
37,960
14,650
24,627
37,911
38,382
51,866
65,103
100,010
88,449
71,840

2,811,055
2,763,142
2,794,482
2,824,956
3,001,308
3,037,439
3,030,072
3,036,051
3,058,921
3,010,665
2,953,538
2,870,061
2,811,055

-115,645
-110,343
-88,665
-29,258
-46,057
-29,781
-9,988
-3,218
16,775
36,522
77,519
72,467
62,158

Jun-00
Jul-00
Aug-00
Sep-00
Oct-00
Nov-00
Dec-00
Jan-01
Feb-01
Mar-01
Apr-01
May-01
Jun-01

2,811,176
2,844,805
2,836,192
3,047,197
3,080,972
3,066,260
3,078,322
3,095,541
3,042,742
2,956,884
2,886,788
2,843,283
2,813,409

2,980,674
2,982,964
2,943,877
2,978,529
2,976,173
2,968,829
2,974,912
2,969,261
2,964,718
2,935,987
2,949,368
2,964,869
2,982,907

2,929,468
2,935,767
2,942,277
2,948,786
2,955,085
2,961,595
2,967,894
2,974,404
2,980,913
2,986,793
2,993,302
2,999,601
3,006,111

51,207
47,197
1,601
29,743
21,088
7,234
7,018
-5,142
-16,195
-50,806
-43,934
-34,733
-23,203

-169,498
-138,159
-107,685
68,668
104,799
97,431
103,410
126,280
78,024
20,897
-62,580
-121,586
-169,498

2,759,969
2,797,608
2,834,591
3,017,454
3,059,884
3,059,026
3,071,304
3,100,683
3,058,937
3,007,690
2,930,722
2,878,016
2,836,612

51,207
47,197
1,601
29,743
21,088
7,234
7,018
-5,142
-16,195
-50,806
-43,934
-34,733
-23,203

2,763,142
2,794,482
2,824,956
3,001,308
3,037,439
3,030,072
3,036,051
3,058,921
3,010,665
2,953,538
2,870,061
2,811,055
2,763,142

48,034
50,323
11,236
45,889
43,533
36,188
42,271
36,620
32,077
3,346
16,727
32,228
50,267

Jul-01
Aug-01
Sep-01
Oct-01
Nov-01
Dec-01
Jan-02

2,889,432
2,976,979
3,068,328
3,094,477
3,057,867
3,088,998

3,027,591
3,084,664
2,999,660
2,989,678
2,960,436
2,985,588

3,012,410
3,018,920
3,025,429
3,031,729
3,038,238
3,044,537
3,051,257

15,181
65,745
-25,769
-42,050
-77,802
-58,949

-138,159
-107,685
68,668
104,799
97,431
103,410
126,280

2,874,251
2,911,234
3,094,097
3,136,527
3,135,669
3,147,947
3,177,536

15,181
65,745
-25,769
-42,050
-77,802
-58,949

2,794,482
2,824,956
3,001,308
3,037,439
3,030,072
3,036,051
3,058,921

94,950
152,023
67,020
57,038
27,795
52,947

Feb-02
Mar-02
Apr-02
May-02

3,057,766
3,063,646
3,070,155
3,076,454

78,024
20,897
-62,580
-121,586

3,135,790
3,084,543
3,007,575
2,954,869

3,010,665
2,953,538
2,870,061
2,811,055

Jun-02
Jul-02
Aug-02
Sep-02

3,082,964
3,089,263
3,095,773
3,102,282

-169,498
-138,159
-107,685
68,668

2,913,466
2,951,104
2,988,087
3,170,950

2,763,142
2,794,482
2,824,956
3,001,308

Oct-02
Nov-02
Dec-02
Jan-03
Feb-03
Mar-03

3,108,582
3,115,091
3,121,390
3,127,900
3,134,409
3,140,289

104,799
97,431
103,410
126,280
78,024
20,897

3,213,380
3,212,522
3,224,800
3,254,180
3,212,433
3,161,186

3,037,439
3,030,072
3,036,051
3,058,921
3,010,665
2,953,538

ERREUR
PREVISION
-205,798
-213,196
-179,837
-134,166

DATE

VENTES

janv-99
fvr-99
mars-99
avr-99
mai-99
juin-99
juil-99
aot-99
sept-99
oct-99
nov-99
dc-99
janv-00
fvr-00
mars-00
avr-00
mai-00
juin-00
juil-00
aot-00
sept-00
oct-00
nov-00
dc-00
janv-01
fvr-01
mars-01
avr-01
mai-01
juin-01
juil-01
aot-01
sept-01
oct-01
nov-01
dc-01
janv-02
fvr-02
mars-02
avr-02
mai-02
juin-02
juil-02
aot-02
sept-02
oct-02
nov-02
dc-02
janv-03
fvr-03
mars-03

2 853 123
2 797 469
2 773 701
2 735 895
2 695 410
2 652 799
2 705 817
2 795 698
2 955 251
3 007 658
3 020 084
3 032 833
3 075 696
3 047 187
3 031 057
2 942 528
2 873 213
2 811 176
2 844 805
2 836 192
3 047 197
3 080 972
3 066 260
3 078 322
3 095 541
3 042 742
2 956 884
2 886 788
2 843 283
2 813 409
2 889 432
2 976 979
3 068 328
3 094 477
3 057 867
3 088 998

SERIE
CVS
2 726 843
2 719 445
2 752 804
2 798 475
2 816 996
2 822 297
2 843 976
2 903 383
2 886 583
2 902 859
2 922 653
2 929 423
2 949 416
2 969 163
3 010 160
3 005 108
2 994 799
2 980 674
2 982 964
2 943 877
2 978 529
2 976 173
2 968 829
2 974 912
2 969 261
2 964 718
2 935 987
2 949 368
2 964 869
2 982 907
3 027 591
3 084 664
2 999 660
2 989 678
2 960 436
2 985 588

APPROX. ERREUR COMPOSANTE PREVISION


LINEAIRE
SAISONNIERE
(droite)
2 820 908 -94 064
126 280 2 947 187
2 827 417 -107 972
78 024
2 905 441
2 833 297 -80 493
20 897
2 854 194
2 839 806 -41 331
-62 580 2 777 226
2 846 105 -29 110
-121 586 2 724 520
2 852 615 -30 317
-169 498 2 683 116
2 858 914 -14 938
-138 159 2 720 755
2 865 424
37 960
-107 685 2 757 738
2 871 933
14 650
68 668
2 940 601
2 878 232
24 627
104 799 2 983 031
2 884 742
37 911
97 431
2 982 173
2 891 041
38 382
103 410 2 994 451
2 897 551
51 866
126 280 3 023 830
2 904 060
65 103
78 024
2 982 084
2 910 150 100 010
20 897
2 931 047
2 916 659
88 449
-62 580 2 854 079
2 922 958
71 840
-121 586 2 801 373
2 929 468
51 207
-169 498 2 759 969
2 935 767
47 197
-138 159 2 797 608
2 942 277
1 601
-107 685 2 834 591
2 948 786
29 743
68 668
3 017 454
2 955 085
21 088
104 799 3 059 884
2 961 595
7 234
97 431
3 059 026
2 967 894
7 018
103 410 3 071 304
2 974 404
-5 142
126 280 3 100 683
2 980 913 -16 195
78 024
3 058 937
2 986 793 -50 806
20 897
3 007 690
2 993 302 -43 934
-62 580 2 930 722
2 999 601 -34 733
-121 586 2 878 016
3 006 111 -23 203
-169 498 2 836 612
3 012 410
15 181
-138 159 2 874 251
3 018 920
65 745
-107 685 2 911 234
3 025 429 -25 769
68 668
3 094 097
3 031 729 -42 050
104 799 3 136 527
3 038 238 -77 802
97 431
3 135 669
3 044 537 -58 949
103 410 3 147 947
3 051 257
126 280 3 177 536
3 057 766
78 024
3 135 790
3 063 646
20 897
3 084 543
3 070 155
-62 580 3 007 575
3 076 454
-121 586 2 954 869
3 082 964
-169 498 2 913 466
3 089 263
-138 159 2 951 104
3 095 773
-107 685 2 988 087
3 102 282
68 668
3 170 950
3 108 582
104 799 3 213 380
3 115 091
97 431
3 212 522
3 121 390
103 410 3 224 800
3 127 900
126 280 3 254 180
3 134 409
78 024
3 212 433
3 140 289
20 897
3 161 186

ERREUR
PREVISION
PREVISION
(constante)
-94 064
3 058 921
-107 972
3 010 665
-80 493
2 953 538
-41 331
2 870 061
-29 110
2 811 055
-30 317
2 763 142
-14 938
2 794 482
37 960
2 824 956
14 650
3 001 308
24 627
3 037 439
37 911
3 030 072
38 382
3 036 051
51 866
3 058 921
65 103
3 010 665
100 010
2 953 538
88 449
2 870 061
71 840
2 811 055
51 207
2 763 142
47 197
2 794 482
1 601
2 824 956
29 743
3 001 308
21 088
3 037 439
7 234
3 030 072
7 018
3 036 051
-5 142
3 058 921
-16 195
3 010 665
-50 806
2 953 538
-43 934
2 870 061
-34 733
2 811 055
-23 203
2 763 142
15 181
2 794 482
65 745
2 824 956
-25 769
3 001 308
-42 050
3 037 439
-77 802
3 030 072
-58 949
3 036 051
3 058 921
3 010 665
2 953 538
2 870 061
2 811 055
2 763 142
2 794 482
2 824 956
3 001 308
3 037 439
3 030 072
3 036 051
3 058 921
3 010 665
2 953 538

ERREUR
PREVISION
-205 798
-213 196
-179 837
-134 166
-115 645
-110 343
-88 665
-29 258
-46 057
-29 781
-9 988
-3 218
16 775
36 522
77 519
72 467
62 158
48 034
50 323
11 236
45 889
43 533
36 188
42 271
36 620
32 077
3 346
16 727
32 228
50 267
94 950
152 023
67 020
57 038
27 795
52 947

Pour cela, on part des sries de base Xt (srie brute) et Zt (srie corrige des variations saisonnires ). Les sries sur
la gauche donne lapproximation linaire. Pour cela, on rgresse la srie Zt sur les sries I (cest dire la constante)
et t (la srie temps ), et lon obtient
APPROX. LINEAIRE : Zt = A + Bt + "t avec A = 209:98, B = 4772213
et o "t est la sries des erreurs (ERREUR)1 8 . En particulier

2 858 914 = 4 772 213 + 209:98 36 342 (t = 36 342correspond au 1er juillet 1999)
38 382 = 2 929 423 2 891 041
La composante saisonnire (COMPOSANTE SAISONNIERE) est alors la srie obtenue dans la partie prcdante,
bt = A+ Bt + t . (colonne PREVISION
et combine la srie Zbt = A+ Bt : on obtient la premire prvision de Xt : X
(droite)). Une mthode encore plus simple est de considrer comme a justement de Zt non pas une droite quelconque
bt = C + t . (colonne PREVISION (constante)). On
mais une constante, Zt = C + t , et la prvision de Xt devient X
pourra ainsi obtenir

2 940 601 = 2 871 933 + 68 668 = (4 772 213 + 209:98 36 404) + 68 668
2 870 061 = 2 932 641 62 580
1 8 Le

temps t est exprim, comme sous Exc el, en nombre de jours par rapport au 1er janvier 1900.

69

Sries temporelles : thorie et applications

5.5.3

Arthur CHARPENTIER

Lissage exponentiel simple

Le lissage exponentiel simple est prsent ci dessous, appliqu la srie corrige des variations saisonnires. Pour cela,
on se xe au pralable une constante de lissage, par exemple = 0:7. La srie lisse est alors dnie parde la faon
suivante
8
< St = Z t1 = 2 726 843 pour t = F eb99
St = Zt 1 + (1 ) St1 = 0:7 3 005 108 + (1 0:7) 2 953 724 = 2 969 139 pour t > F eb99
:
St = S T pour t > T = Dec01
bt = St + t, soit dans lexemple
Lerreur saisonnire est alors toujours la srie ( t) et la prvision est alors donne par X
ci-dessous
3 051 423 = 2 925 143 + 126 280

5.5.4

DATE

VENTES

SERIE

SERIE

ERREUR

PREVISION

ERREUR

CVS

LISSEE

SAISONNIERE

(lissage)

PREVISION

Jan-99

2,853,123

2,726,843

Feb-99

2,797,469

Mar-99

2,719,445

2,726,843

2,773,701

2,752,804

2,721,665

Apr-99

2,735,895

2,798,475

2,743,462

May-99

2,695,410

2,816,996

2,781,971

-121,586

Jun-99

DATE

VENTES

SERIE

SERIE

ERREUR

PREVISION

ERREUR

CVS

LISSEE

SAISONNIERE

(lissage)

PREVISION

Jan-99

2,853,123

2,726,843

Feb-99

78,024

2,804,867

-7,398

2,797,469

2,719,445

2,726,843

20,897

2,742,562

31,139

Mar-99

2,773,701

2,752,804

2,721,665

-62,580

2,680,882

55,013

Apr-99

2,735,895

2,798,475

2,743,462

2,660,385

35,025

May-99

2,695,410

2,816,996

2,781,971

-121,586

78,024

2,804,867

-7,398

20,897

2,742,562

31,139

-62,580

2,680,882

55,013

2,660,385

35,025

2,652,799

2,822,297

2,806,488

-169,498

2,636,990

15,809

Jun-99

2,652,799

2,822,297

2,806,488

-169,498

2,636,990

15,809

Jul-99

2,705,817

2,843,976

2,817,555

-138,159

2,679,396

26,421

Jul-99

2,705,817

2,843,976

2,817,555

-138,159

2,679,396

26,421

Aug-99

2,795,698

2,903,383

2,836,050

-107,685

2,728,364

67,334

Aug-99

2,795,698

2,903,383

2,836,050

-107,685

2,728,364

67,334

Sep-99

2,955,251

2,886,583

2,883,183

68,668

2,951,851

3,400

Sep-99

2,955,251

2,886,583

2,883,183

68,668

2,951,851

3,400

Oct-99

3,007,658

2,902,859

2,885,563

104,799

2,990,362

17,296

Oct-99

3,007,658

2,902,859

2,885,563

104,799

2,990,362

17,296

Nov-99

3,020,084

2,922,653

2,897,671

97,431

2,995,102

24,982

Nov-99

3,020,084

2,922,653

2,897,671

97,431

2,995,102

24,982

Dec-99

3,032,833

2,929,423

2,915,158

103,410

3,018,568

14,265

Dec-99

3,032,833

2,929,423

2,915,158

103,410

3,018,568

14,265

Jan-00

3,075,696

2,949,416

2,925,143

126,280

3,051,423

24,273

Jan-00

3,075,696

2,949,416

2,925,143

126,280

3,051,423

24,273

Feb-00

3,047,187

2,969,163

2,942,134

78,024

3,020,158

27,029

Feb-00

3,047,187

2,969,163

2,942,134

78,024

3,020,158

27,029

Mar-00

3,031,057

3,010,160

2,961,055

20,897

2,981,952

49,105

Mar-00

3,031,057

3,010,160

2,961,055

20,897

2,981,952

49,105

Apr-00

2,942,528

3,005,108

2,995,428

-62,580

2,932,848

9,680

Apr-00

2,942,528

3,005,108

2,995,428

-62,580

2,932,848

May-00
Jun-00

2,873,213
2,811,176

2,994,799
2,980,674

3,002,204
2,997,020

-121,586
-169,498

2,880,618
2,827,522

-7,405
-16,346

May-00

2,873,213

2,994,799

3,002,204

-121,586

2,880,618

-7,405

2,811,176
2,844,805

2,980,674
2,982,964

2,997,020
2,985,578

-169,498
-138,159

2,827,522
2,847,419

-16,346
-2,614

9,680

Jul-00

2,844,805

2,982,964

2,985,578

-138,159

2,847,419

-2,614

Jun-00
Jul-00

Aug-00

2,836,192

2,943,877

2,983,748

-107,685

2,876,063

-39,871

Aug-00

2,836,192

2,943,877

2,983,748

-107,685

2,876,063

-39,871

Sep-00

3,047,197

2,978,529

2,955,839

68,668

3,024,506

22,691

Sep-00

3,047,197

2,978,529

2,955,839

68,668

3,024,506

22,691

Oct-00

3,080,972

2,976,173

2,971,722

104,799

3,076,521

4,451

Oct-00

3,080,972

2,976,173

2,971,722

104,799

3,076,521

4,451

Nov-00
Dec-00

3,066,260
3,078,322

2,968,829
2,974,912

2,974,838
2,970,632

97,431
103,410

3,072,269
3,074,042

-6,009
4,280

Nov-00
Dec-00

3,066,260
3,078,322

2,968,829
2,974,912

2,974,838
2,970,632

97,431
103,410

3,072,269
3,074,042

-6,009
4,280

Jan-01

3,095,541

2,969,261

2,973,628

126,280

3,099,908

-4,367

Jan-01

3,095,541

2,969,261

2,973,628

126,280

3,099,908

-4,367

Feb-01
Mar-01

3,042,742
2,956,884

2,964,718
2,935,987

2,970,571
2,966,474

78,024
20,897

3,048,595
2,987,371

-5,853
-30,487

Feb-01
Mar-01

3,042,742
2,956,884

2,964,718
2,935,987

2,970,571
2,966,474

78,024
20,897

3,048,595
2,987,371

-5,853
-30,487

Apr-01

2,886,788

2,949,368

2,945,133

-62,580

2,882,553

4,235

Apr-01

2,886,788

2,949,368

2,945,133

-62,580

2,882,553

4,235

May-01
Jun-01

2,843,283
2,813,409

2,964,869
2,982,907

2,781,971
2,909,999

-121,586
-169,498

2,660,385
2,740,501

182,898
72,908

May-01

2,843,283

2,964,869

2,781,971

-121,586

2,660,385

182,898

Jun-01
Jul-01

2,813,409
2,889,432

2,982,907
3,027,591

2,909,999
2,961,035

-169,498
-138,159

2,740,501
2,822,876

72,908
66,556

Jul-01

2,889,432

3,027,591

2,961,035

-138,159

2,822,876

66,556

Aug-01
Sep-01

2,976,979
3,068,328

3,084,664
2,999,660

3,007,624
3,061,552

-107,685
68,668

2,899,939
3,130,220

77,040
-61,892

Aug-01

2,976,979

3,084,664

3,007,624

-107,685

2,899,939

77,040

Oct-01

3,094,477

2,989,678

3,018,228

104,799

3,123,027

-28,550

Sep-01
Oct-01

3,068,328
3,094,477

2,999,660
2,989,678

3,061,552
3,018,228

68,668
104,799

3,130,220
3,123,027

-61,892
-28,550

Nov-01
Dec-01

3,057,867
3,088,998

2,960,436
2,985,588

-37,808
13,810

Nov-01

3,057,867

2,960,436

2,998,243

Dec-01

3,088,998

2,985,588

2,998,243
2,971,778

97,431
103,410

3,095,675
3,075,188

97,431

3,095,675

-37,808

2,971,778

103,410

3,075,188

13,810

Jan-02

2,981,445

126,280

3,107,725

Jan-02

2,981,445

126,280

3,107,725

Feb-02

2,981,445

78,024

3,059,469

Feb-02

2,981,445

78,024

3,059,469

Mar-02

2,981,445

20,897

3,002,342

Mar-02

2,981,445

20,897

3,002,342

Apr-02

2,981,445

-62,580

2,918,865

Apr-02

2,981,445

-62,580

2,918,865

May-02

2,981,445

-121,586

2,859,859

May-02

2,981,445

-121,586

2,859,859

Jun-02

2,981,445

-169,498

2,811,947

Jun-02

2,981,445

-169,498

2,811,947

Jul-02

2,981,445

-138,159

2,843,286

Jul-02

2,981,445

-138,159

2,843,286

Aug-02

2,981,445

-107,685

2,873,760

Aug-02

2,981,445

-107,685

2,873,760

Sep-02

2,981,445

68,668

3,050,112

Sep-02

2,981,445

68,668

3,050,112

Oct-02

2,981,445

104,799

3,086,244

Oct-02

2,981,445

104,799

3,086,244

Nov-02
Dec-02

2,981,445
2,981,445

97,431
103,410

3,078,876
3,084,855

Nov-02
Dec-02

2,981,445
2,981,445

97,431
103,410

3,078,876
3,084,855

Jan-03

2,981,445

126,280

3,107,725

Jan-03

2,981,445

126,280

3,107,725

Feb-03
Mar-03

2,981,445
2,981,445

78,024
20,897

3,059,469
3,002,342

Feb-03
Mar-03

2,981,445
2,981,445

78,024
20,897

3,059,469
3,002,342

Lissage exponentiel double

Les sries (S) et (S 0) sont dnies rcursivement de la faon suivante

St = Xt1 + (1 ) St 1 pour t = 2; :::; n + 1


St0 = St1 + (1 ) S 0t1 pour t = 2; :::; n + 1
Les coecients A et B sont dnie par
At = 2St St0 et Bt =

[St St0 ]
1

soit sur lexemple ci-dessous


At = 2 2 771 987 2 746 504 = 2 797 469 et Bt =

0:7
(2 882 758 2 842 769)
1 0:7

La srie lissage brut est donne par


At + Bt = 2 877 040 + 18 480 = 2 895 520

70

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La srie de la prvision est alors donne, lorsquil y a n observations, par


P
Xt = At + Bt pour t = 2; :::; n + 1
P
Xn+
h = An+1 + h:Bn+1 pour h 1
DATE

VENTES

Jan-99
Feb-99

2,853,123
2,797,469

SERIE
CVS
2,726,843
2,719,445

SERIE
LISSEE S

SERIE
LISSEE SS

COEFF.
A

COEFF.
B

LISSAGE
BRUT

ERREUR
PREVISION
ERREUR
SAISONNIERE (lissage)
PREVISION

2,726,843

2,726,843

2,726,843

2,726,843

78,024

2,804,867

-7,398

Mar-99
Apr-99
May-99

2,773,701
2,735,895
2,695,410

2,752,804
2,798,475
2,816,996

2,721,665
2,743,462
2,781,971

2,723,218
2,737,389
2,768,596

2,720,111
2,749,535
2,795,346

-3,625
14,171
31,207

2,716,486
2,763,706
2,826,553

20,897
-62,580
-121,586

2,737,383
2,701,126
2,704,967

36,318
34,769
-9,557

Jun-99
Jul-99

2,652,799
2,705,817

2,822,297
2,843,976

2,806,488
2,817,555

2,795,121
2,810,824

2,817,856
2,824,285

26,524
15,704

2,844,380
2,839,989

-169,498
-138,159

2,674,882
2,701,830

-22,083
3,987

Aug-99
Sep-99

2,795,698
2,955,251

2,903,383
2,886,583

2,836,050
2,883,183

2,828,482
2,866,773

2,843,617
2,899,594

17,658
38,291

2,861,275
2,937,884

-107,685
68,668

2,753,590
3,006,552

42,108
-51,301

Oct-99

3,007,658

2,902,859

2,885,563

2,879,926

2,891,201

13,153

2,904,354

104,799

3,009,153

-1,495

Nov-99
Dec-99

3,020,084
3,032,833

2,922,653
2,929,423

2,897,671
2,915,158

2,892,347
2,908,315

2,902,994
2,922,001

12,421
15,968

2,915,415
2,937,969

97,431
103,410

3,012,846
3,041,379

7,238
-8,546

Jan-00
Feb-00
Mar-00
Apr-00

3,075,696
3,047,187
3,031,057
2,942,528

2,949,416
2,969,163
3,010,160
3,005,108

2,925,143
2,942,134
2,961,055
2,995,428

2,920,095
2,935,523
2,953,395
2,982,818

2,930,192
2,948,746
2,968,714
3,008,038

11,780
15,428
17,872
29,423

2,941,972
2,964,174
2,986,587
3,037,461

126,280
78,024
20,897
-62,580

3,068,252
3,042,198
3,007,484
2,974,882

7,444
4,989
23,573
-32,354

May-00
Jun-00
Jul-00
Aug-00

2,873,213
2,811,176
2,844,805
2,836,192

2,994,799
2,980,674
2,982,964
2,943,877

3,002,204
2,997,020
2,985,578
2,983,748

2,996,388
2,996,831
2,988,954
2,985,310

3,008,020
2,997,210
2,982,202
2,982,187

13,570
442
-7,877
-3,644

3,021,590
2,997,652
2,974,326
2,978,543

-121,586
-169,498
-138,159
-107,685

2,900,004
2,828,154
2,836,167
2,870,857

-26,791
-16,978
8,638
-34,665

Sep-00

3,047,197

2,978,529

2,955,839

2,964,680

2,946,997

-20,630

2,926,367

68,668

2,995,035

52,162

Oct-00
Nov-00
Dec-00
Jan-01
Feb-01
Mar-01
Apr-01
May-01
Jun-01
Jul-01
Aug-01

3,080,972
3,066,260
3,078,322
3,095,541
3,042,742
2,956,884
2,886,788
2,843,283
2,813,409
2,889,432
2,976,979

2,976,173
2,968,829
2,974,912
2,969,261
2,964,718
2,935,987
2,949,368
2,964,869
2,982,907
3,027,591
3,084,664

2,971,722
2,974,838
2,970,632
2,973,628
2,970,571
2,966,474
2,945,133
2,948,097
2,959,837
2,975,986
3,012,110

2,969,610
2,973,270
2,971,423
2,972,966
2,971,290
2,967,919
2,951,969
2,949,259
2,956,664
2,970,190
2,999,534

2,973,835
2,976,407
2,969,840
2,974,289
2,969,853
2,965,029
2,938,297
2,946,936
2,963,011
2,981,783
3,024,686

4,930
3,660
-1,847
1,543
-1,677
-3,371
-15,950
-2,710
7,405
13,526
29,344

2,978,764
2,980,067
2,967,994
2,975,833
2,968,176
2,961,659
2,922,347
2,944,226
2,970,416
2,995,309
3,054,030

104,799
97,431
103,410
126,280
78,024
20,897
-62,580
-121,586
-169,498
-138,159
-107,685

3,083,563
3,077,498
3,071,404
3,102,112
3,046,200
2,982,556
2,859,767
2,822,640
2,800,917
2,857,150
2,946,344

-2,591
-11,238
6,918
-6,571
-3,458
-25,672
27,021
20,643
12,492
32,282
30,635

Sep-01
Oct-01
Nov-01
Dec-01
Jan-02

3,068,328
3,094,477
3,057,867
3,088,998

2,999,660
2,989,678
2,960,436
2,985,588

3,062,898
3,018,632
2,998,364
2,971,814
2,981,456

3,043,889
3,026,209
3,006,718
2,982,285
2,981,705

3,081,907
3,011,055
2,990,011
2,961,343
2,981,207

44,355
-17,680
-19,491
-24,432
-581

3,126,262
2,993,375
2,970,520
2,936,911
2,980,626

68,668
104,799
97,431
103,410
126,280

3,194,930
3,098,173
3,067,951
3,040,321
3,106,906

-126,602
-3,696
-10,084
48,677
-3,106,906

Feb-02

2,981,207

-1,161

2,980,046

78,024

3,058,069

-3,058,069

Mar-02
Apr-02

2,981,207
2,981,207

-1,742
-2,323

2,979,465
2,978,884

20,897
-62,580

3,000,362
2,916,305

-3,000,362
-2,916,305

May-02
Jun-02

2,981,207
2,981,207

-2,903
-3,484

2,978,304
2,977,723

-121,586
-169,498

2,856,718
2,808,225

-2,856,718
-2,808,225

Jul-02
Aug-02

2,981,207
2,981,207

-4,065
-4,645

2,977,142
2,976,562

-138,159
-107,685

2,838,983
2,868,877

-2,838,983
-2,868,877

Sep-02

2,981,207

-5,226

2,975,981

68,668

3,044,649

-3,044,649

Oct-02
Nov-02
Dec-02
Jan-03
Feb-03
Mar-03

2,981,207
2,981,207
2,981,207
2,981,207
2,981,207
2,981,207

-5,806
-6,387
-6,968
-7,548
-8,129
-8,710

2,975,401
2,974,820
2,974,239
2,973,659
2,973,078
2,972,497

104,799
97,431
103,410
126,280
78,024
20,897

3,080,199
3,072,251
3,077,649
3,099,938
3,051,102
2,993,395

-3,080,199
-3,072,251
-3,077,649
-3,099,938
-3,051,102
-2,993,395

Les graphiques ci-dessous correspondent, respectivment la comparaison entre les lissages corrigs des variations
saisonnires et les lissages de la srie brute (en haut et en bas respectivement ), avec gauche le lissage par une
constante et par une droite, au centre un lissage expontiel simple et droite un lissage exponentiel double,
3200000

3100000

3200000

3100000
3000000

3100000

3000000

3000000

2900000

2900000

2900000

2800000

2800000

2700000

2800000

2700000

99:07
SERIE_CVS

00:01

00:07

01:01

TEND_CSTE

01:07
TEND_LINEAIRE

99:07

SERIE_CVS

00:01

00:07

01:01

TEND_LISS_03_SIM

71

01:07
TEND_LISS_07_SIM

2700000

99:07

SERIE_CVS

00:01

00:07

01:01

TEND_03_LISS_DOU

01:07
TEND_07_LISS_DOU

Sries temporelles : thorie et applications

3200000
3100000

Arthur CHARPENTIER

3200000

3200000

3100000

3100000

3000000

3000000

3000000

2900000

2900000

2900000

2800000
2800000

2800000

2700000

2700000
2600000

2700000

2600000

99:07
SERIE

00:01

00:07

PREV_CSTE

01:01

01:07

PREV_LINERAIRE

2500000
SERIE

2600000

99:07

00:01

00:07

01:01

PREV_LISS_03_SIM

72

01:07
PREV_LISS_07_SIM

SERIE

99:07

00:01

00:07

01:01

PREV_LISS_03_DOU

01:07
PREV_07_LISS_DOU

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Prvoir consiste projeter dans lavenir ce quon a peru dans le pass.


Henri Bergson, Le possible et le rel (1930) .

Introduction aux modles linaires ARIM A

6.1
6.1.1

Rappels sur les espaces L2


Proprits topologiques

On considre le processus (Xt ) dnit sur lespace de probabilit (-; A; P), valeurs dans R.
Dnition 28 Lespace L2 (-; A; P) est lespace des variables de carr intgrable (variances-covariances nies).
De faon plus gnrale (et plus formelle), on dsigne par Lp lespace de Banach des classes dquivalence (pour
R
1=p
p
lgalit P-presque sre) des fonctions mesurables telles que kf kp = - jf j dP
soit nie.
Proprit 21 L2 est un espace de Hilbert, muni du produit scalaire h; i et la norme associekk

hX; Y i = E (XY )
2
2
kXk = hX; Xi = E X 2 = V (X) + E (X) :

Par dnition de la covariance, on peut noter que, si X et Y sont centre, hX; Y i = E (XY ) = cov (X; Y ).

Thorme 5 Thorme de projection Si H est un sous espace ferm de L2 , pour toute variable Y 2 L2 , il existe
une unique variable alatoire Yb 2 H tel que

Y Yb = min kY Hk ;
H 2H

b 2 H et Y Yb 2 H? . On notera aussi H (Y ).
caractris par Y
Remarque 27 Xn converge vers X au sens de L2 si

lim kXn Xk = 0, cest dire

n!1

On peut alors dnir la variable alatoire Y =


Yp;q =

q
X

n2Z

lim EXn = EX
lim V (Xn X) = 0

an Xn comme limite, dans L 2 de Y p;q

an Xn et Y =

n= p

6.1.2

lim

p;q!+1

Y p;q =

an X n :

n2Z

Rappel sur les vecteurs et processus gaussiens


0

Pour un vecteur alatoire Z = (Z1 ; :::; Zd ) , on dnit son


esprance par E (Z) = (E (Z1 ) ; :::; E (Zd )) et sa matrice
de variance-covariance (si elles existent ) par V (Z) = E (Z E (Z)) (Z E (Z ))0 . Cette matrice est hermitienne
positive. De plus, si A est la matrice dun application linaire de R d dans Rp , le vecteur AZ admet pour esprance
AE (Z) et pour matrice de variance-covariance AV (Z) A0 .
Dnition 29 Le vecteur X = (X1 ; :::; Xd ) est un vecteur gaussien si toute combinaison des Xi est une variable
gaussienne, i.e. pour tout a 2 R d , aX est une variable gaussienne. Sa densit scrit alors

1
1
0 1
f (x) =
exp

(x

(x

)
;
p
2
(2)d=2 det
o 2 Rd et est une matrice hermitienne positive d d.
Si X est un vecteur gaussien, son moment lordre p existe et de plus, E (X) = et V (X) = :
Dnition 30 Le processus (Xt ) est un processus gaussien si tout systme ni extrait est un vecteur alatoire gaussien,
i.e. pour tout n, pour tout t1 ; :::; tn , (Xt1; :::; Xtn ) est un vecteur gaussien.
73

Sries temporelles : thorie et applications

6.1.3

Arthur CHARPENTIER

Regression ane dans L2

(i) rgression sur un nombre ni de variables


La rgression linaire thorique de Y sur X1 ; :::; Xn est la projection orthogonale dans L2 (-; A; P) de X sur

H = V ect(X1 ; :::; Xn ), et la rgression ane thorique de Y sur X1 ; :::; Xn est la projection orthogonale dans
L2 (-; A; P) de Y sur H = V ect(I; X1 ; :::; Xn ). On note alors
b = E L (Y jI; X1 ; :::; Xn ) = H (Y )
Y

o E L (:j:) dsigne lesprance linaire: Cette variable est la meilleure approximation (au sens de L2 ) de Y par une
combinaison linaire de I; X1 ; :::; Xn ;
Y

Xk
bk Xk
EL(Y|X 1 Xk )=b1 X1 ++bk X k
b1 X1

X1

Proprit 22 Soit le vecteur [cov (X; Xi )]i=0;1; :::;n et la matrice [cov (Xi; Xj )]i; j=0;1; :::;n . Alors
b = E L (XjI; X1 ; :::; Xn ) = a0 + a1 X1 + ::: + an Xn ;
X

o a = (a0 ; a1 ; :::; an ) vrie a = 1 .

b peut scrire 0 + 1 X1 + ::: + n Xn car X


b 2 H, et vrie
Preuve. X
8 D
E
< X X;
b I =0
D
E
: X X;
b Xi = 0 pour i = 1; :::; n;

b 2 H? , cest dire
car X X
Do


< E X X
b = 0 soit E (X) = E X
b
h
i
: E X X
b Xi = 0 pour i = 1; :::; n:

8

< E (X) = E X
b = 0 + 1 E (X1 ) + ::: + n E (Xn )

: E (XXi) = E XX
b i = 0 E (Xi ) + 1 E (X1 Xi) + ::: + n E (Xn Xi)

(1) donne 0 = E (X) 1 E (X1 ) ::: n E (Xn ) et par substitution dans (2),
E (XXi ) =

E (X) E (Xi) (1 E (X1 ) + ::: + n E (Xn )) E (Xi )


+ 1 E (X1 Xi) + ::: + n E (Xn Xi )

donc, pour i = 1; :::; n


cov (XXi) = 1 cov (X1 Xi) + ::: + n cov (Xn Xi) ;
ce qui donne le systme

8
cov (XX1 ) = 1 cov (X1 X1 ) + ::: + n cov (Xn X1 )
>
>
<
cov (XX2 ) = 1 cov (X1 X2 ) + ::: + n cov (Xn X2 )
>
:::
>
:
cov (XXn ) = 1 cov (X1 Xn ) + ::: + n cov (Xn Xn ) ;

qui scrit sous forme matricielle

= :

74

(1)
(2)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 28 On peut noter que E L (XjI; X1 ; :::; Xn ) = E L (XjX1 ; :::; Xn ) si et seulement si E (X) = 0 et E (Xj ) =
0 pour j = 1; 2; :::; n.
(ii) rgression sur un nombre inni de variables
On considre cette fois ci X1 ; :::; Xn ; ::: des variables de L2 , et X0 = I 2 L2 . Soit H ladhrance de lespace
engendr par les combinaisons linaires des Xi : H =L (I; X1 ; :::; Xn ; :::).
b n = EL (X jI; X1 ; :::; Xn ). La projection sur H est alors la limite (dans L2 ) des variables X
bn
On considre alors X
b = lim EL (XjI; X1 ; :::; Xn ) :
X
n!1

6.1.4

La notion dinnovation

Oprateur de pro jection linaire Etant donnes une variable alatoire Y et une famille de variables alatoires
fX1 ; :::; Xn g, on dnit loprateur de projection linaire de la faon suivante :
(Y j fX1 ; :::; Xn g) = 1 X1 + ::: + n Xn ;
o les i sont les solutions du programme doptimisation
(1 ; :::; n ) = arg min fV ar [Y (a1 X1 + ::: + an Xn )]g :
a1 ;:::;a n

En dautres termes, (Y j fX1 ; :::; Xn g) est la meilleure prvision linaire de Y base sur fX1 ; :::; Xn g, au sens o la
variance de lerreur sera minimale. On peut noter que cet oprateur est linaire, au sens o
(:Y + :Zj fX1 ; :::; Xn g) = : (Y j fX1 ; :::; Xn g) + : (Zj fX1 ; :::; Xn g) :
De plus, lerreur de prvision Y (Y j fX1 ; :::; Xn g) est non corrle avec toute fonction linaire des X1 ; :::; Xn . Enn,
si cov (X1 ; X2 ) = 0, alors (Y j fX1 ; X2 g) = (Y j fX1 g) + (Y j fX2 g).
Il est possible de projeter sur une suite innie de variables alatoires fX1 ; :::; Xn ; :::g, en notant
(Y j fX1 ; :::; Xn ; :::g) = lim (Y j fX1 ; :::; Xk g) :
k!1

Cette limite existant pour toute suite de variables alatoires j fX1 ; :::; Xn ; :::g :
Prvision linaire
Dnition 31 Soit (Xt )t2Z un processus de L2 . On appelle meilleur prvision linaire de Xt sachant son pass la
regression linaire (thorique) de Xt sur son pass H =V ect (I; Xt1 ; Xt2 ; :::), et sera note E L (Xt jI; Xt1 ; Xt2 ; :::).
Dnition 32 Le processus dinnovation du processus (Xt) est le processus ("t ) dni par
"t = Xt E L (Xt jI; Xt1 ; Xt2 ; :::) :

Proprit 23 Soit (Y t) un bruit blanc BB 0; 2 , le processus stationnaire (Xt ) dnit par19


Xt = Y t Y t1 pour jj < 1;

alors
EL (XtjI; Xt 1 ; Xt 2 ; :::) =
et le processus dinnovation est (Y t) :

1
X

i Xti

i=1

Preuve. Le processus (Xt) est stationnaire en tant que moyenne mobile de bruit blanc. Dnissons alors
S t;n =
1 9 Cec i

n
X

iXti .

i=1

correspond un processus MA (1), dont la racine est lintrieur du cercle unit.

75

Sries temporelles : thorie et applications

Arthur CHARPENTIER

A t x, la suite (St;n ) est une suite de Cauchy dans L2 puisque

n
n
X

X
i

i
;
kSt;n St;m k =
Xti kXtk

i=m+1

i=m+ 1

qui tend vers 0 quand m et n tendent vers linni. (St;n ) converge donc dans L2 vers St =
V ect (I; Xt1 ; Xt2 ; :::).
Or Xt = Y t Yt 1 , donc Xt + Sn;t = Yt + n+1 Y tn1 et donc
Xt +

1
X

P1

i=1

iXt i, lment de

i Xti = Y t ;

i=1

puisque n+1 Y tn1 2 jjn+1 ! 0 quand n ! 1, do Xt = St + Y t .


Or hXs ; Yt i = 0 pour tout s < t, hI; Y t i = 0 et St 2 V ect (I; Xt1 ; Xt2 ; :::), donc St = EL (XtjI; Xt 1 ; Xt 2 ; :::) et
("t ) est le processus dinnovation.

Remarque 29 Soit (Y t) un bruit blanc BB 0; 2 , le processus stationnaire (Xt ) satisfaisant


Xt Xt1 = Yt ; avec jj > 1;

Comme nous le verrons par la suite (proprit (??)) le processus Y t ainsi dni ne correspond pas linnovation
du processus Xt . Il est possible de montrer (en utilisant la densit spectrale) que le processus "t dnit par "t =
Xt 1 Xt1 est eectivement un bruit blanc. En fait, ("t ) correspond au processus dinnovation associ au processus
(Xt ).
Du fait de cette dnition, linnovation possde un certain nombre de proprits
Y

Xk
bk Xk
EL(Y|X 1 Xk )=b1 X1 ++bk X k
b1 X1

X1

Comme on peut le voir sur le schma ci-dessus, si "t est linnovation, alors elle est orthogonale au pass de Xt cest
dire que

E ("t Xt1 ) = E (" tXt 2 ) = ::: = E (" tXt h ) = ::: = 0


mais E ("t Xt ) 6= 0:
De plus, on aura galement que "t+k sera galement orthonogonale au pass de Xt , pour k 0;
E ("t+k Xt1 ) = E (" t+k Xt 2 ) = ::: = E (" t+k Xt h ) = ::: = 0:
Remarque 30 De faon rigoureuse, il conviendrait dintroduite la notion de processus rgulier : on dira que le
processus stationnaire (Xt ), centr, est rgulier sil existe un bruit blanc ("t ) tel que, pour tout t 2 Z, ladhrance des
passs (linaires) HtX = V ect (I; Xt 1 ; Xt2 ; :::) et H t" = V ect (I; "t1 ; "t2 ; :::) concident : HtX = H t". On peut alors
montrer si (Xt) est un processus stationnaire rgulier, et si ("t ) est un bruit blanc tel que, chaque date t les passs
concident, alors on a la dcomposition
1
HtX = Ht
R" t; pour tout t;
X

o dsigne une somme directe orthogonale, et le processus bruit blanc est alors unique : il est appel innovation du
processus (Xt ) : Le fait que les deux espaces concident implique, en particulier, que si ("t ) est linnovation du processus
(Xt ) alors
EL (XT + k jXT ; XT 1 ; ::::) = EL (XT +h j"T ; " T 1 ; :::) :
76

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Complments laide des espaces H Etant donn un processus (Xt ), on notera H (X) le sous-espace de Hilbert
de L2 correspondant ladhrance, dans L2 , de lespace des combinaisons linaires nies dlments de (Xt ). On
notera HT (X) le sous-espace de Hilbert de L2 correspondant ladhrance, dans L2 , de lespace des combinaisons
linaires nies dlments de (Xt ) avec t T .
Dnition 33 On appelle processus dinnovation la suite "t = Xt Ht1(X) (Xt).
Ce processus est alors une suite orthogonale (pour le produit scalaire h; i), et on a linclusion Ht1 (") Ht1 (X).

6.2
6.2.1

Polynmes doprateurs retard L et avance F


Rappels sur les oprateurs retards

Nous avions dni prcdemment loprateur retard L par L : Xt 7! L (Xt ) = LXt = Xt1 et loprateur avance F
par F : Xt 7! F (Xt ) = F Xt = Xt+1 . On notera alors
Lp = L
::: L} o p 2 N,
| L {z
p fois

avec la convention L0 = I et L1 = F . Et de faon analogue, L p = F p pour p 2 N.


6.2.2

Inversibilit des polynmes P (L)

Soit A () un polynme, on cherche B () tel que A () B () = B () A () = 1.


(i) inversibilit de P (L) = 1 L
Proprit 24 (i) Si jj < 1 alors 1 L est inversible, et de plus,
(1 L)

1
X

k Lk :

k= 0

(ii) Si jj > 1 alors 1 L est inversible, et de plus,


1

(1 L)

1
X
1 k
=
F :
k

k=1

(iii) Si jj = 1, alors 1 L nest pas inversible.


Preuve. (i) Si jj < 1 alors
1

(1 )
donc A(L) =

P+1

k=0

+1
X

k =

k=0

1
< +1;
1

L est bien dni. De plus:


0
1
k
X
(1 L)A(L) = lim (1 L) @
j Lj A = lim 1 k+1 Lk+1 = 1;
k!+1

k!+ 1

j=0

ce qui signie que A est le polynme inverse associ (1 L).

(ii) De faon analogue, si jj > 1 alors 1 L = L 1 = L 1


(L)

1
= F et

F
1

En combinant ces deux rsultats :


1

(1 L)

Fk =
k

1
X

= (L)

+1
X

k=1

77

. On a alors :


1
=
F car < 1
k

k=0
+1
X

F
1

1
= F

k=1

k Lk ;

+1
X 1
k= 0

Sries temporelles : thorie et applications

Arthur CHARPENTIER

ce qui correspond au rsultat souhait.


P
P
(iii) En eet, il nexiste par de polynme A(L) = k2Z ak Lk ;
k2 Z jak j < +1 tel que (1 L)A(L) = 1. En eet,
s un tel polynme existait,
(1 L)A(L) = 1 ) jak j = jak1 j 9 0 quand k ! 1;
P
et donc k2Z jak j = +1.
Exemple 37 Soit (Xt ) et (Y t ) deux processus stationnaires tels que Y t = Xt Xt 1 = (1 L) X t; o < 1. Cette
relation sinverse en
Xt = (1 L) 1 Y t = Y t + Y t 1 + ::: + k Y tk + :::
Exemple 38 Dans le cas o = 1 (racine unit) on se retrouve en prsnce dune marche alatoire Yt = Xt Xt1
(non stationnaire).
(ii) inversibilit des polynmes en L
Tout polynme A (L) = 1 + a1 L + ::: + an L n (normalis tel que A (0) = 1), peut scrire
A (z) = an (z z 1 ) (z z2 ) ::: (z zn ) ;
correspondant la dcomposition en lments simples (zi = racines du polynme). On peut crire
A (L) =

n
Y

i=1

(1 iL) o i =

1
zi

Proprit 25 Si pour tout i, ji j 6= 1, alors A (L) est inversible. Pour cela, notons

Y
Y
Y
Y
1
A (L) =
(1 i L) =
(1 iL)
1 F
( i L);
i
j ij< 1
j ij> 1
j ij>1
|
{z
}|
{z
}|
{z
}
A1(L)

A2 (L)

A3(L )
1

puisque (1 i L) = iL (1 F =i ), et alors, linverse de A (L) est donn par A (L)


1

A (L)

(1 iL)

= A1 (L)

A2 (L)

A3 (L)

j ij<1

o n = card fi; j i j > 1g.

(1 iL)
{z

j ij> 1

}|

k Lk

1
1 F
i
{z
P

kF k

2
4

jij> 1

i5 F n ;

P
Qp
Preuve. En eet, 8i; (1 i L)1 est bien dni, de la forme k2Z ai;k Lk et A(L)1 = i=1 (1 iL) 1 est donc
aussi dni. Toutefois, A(L) 1 peut contenir des
termes en Lk ; k > 0 qui sont des termes concernant le futur
P+1
1
Si j ij < 1 pour tout i alors (1 iL) = k=0 ki Lk et :
A(L)1 =

p
Y

(1 iL) 1 =

i=1

Par ailleurs,
A(z) =

p
Y

(1 iz)

i=1

+1
X

ak Lk

k= 0

+1
X
k=0

et A(z)A(z)1 = 1 ,

p
Y

jak j < +1:

(1 iz)

i=1

+ 1
X
k=0

ak z k

= 1;

de telle sorte que A(0)A(0) 1 = 1 a0 = 1 ) a0 = 1. Sil existe i tel que i 2 CnR alors A(L) = (1 i)(1 i)P (L)
et

!
!
+1
+1
+1
+1
X
X
X
X
k
k
i Lk =
(1 i) 1 (1 i)1 =
i L k
k Lk k 2 R; 0 = 1;
jak j < +1:
k=0

k=0

k=0

k=0

Remarque 31 Si des racines sont infrieures 1 (en module), cette dcomposition fait intervenir le futur de la
variable.
78

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Pour dterminer, en pratique, linverse dun polynme A (L), supposons quil scrive A(L) =
telle sorte que
+1
!
p
Y
X k
1
k
A(L) =
j L
j=1

Qp

j= 1(1

j L), de

k=0

On peut utiliser directement cette mthode de calcul pour p petit (p = 1; 2) mais elle savre fastidieuse en gnral.
On note,
+ 1
!
+1
!
X
X
A(L)
ak Lk = (1 + ' 1 L + + 'p Lp )
ak Lk = 1
k=0

k=0

Les ak sont obtenus par rcurrence puis identication.

(L) 1 =

p
Y

1
1 j L
j=1

On dcompose alors cette fraction rationnelle en lments simples, 1 = (z)Qr (z) + z r+1 Rr (z) avec limr !+1 Qr (z) =
A1 (z).

6.3

Complments sur les sries stationnaires : les autocorrlations


Pour rappels, Un processus (Xt ) est stationnaire (au second ordre) si pour tout t, E Xt2 < +1; pour tout t,
E (Xt ) = , constante indpendante de t et, pour tout t et pour tout h, cov (Xt; Xt+h ) = (h), indpendante de t:
6.3.1

Autocovariance et autocorrlation

Pour une srie stationnaire (Xt ), on dni la fonction dautocovariance h 7! X (h) = cov (Xt Xth ) pour tout t,
et on dni la fonction dautocorrlation h 7! X (h) = X (h) =X (0) pour tout t, soit
cov (Xt ; Xth )
(h)
p
= X
X (0)
V (Xt) V (Xth )

X (h) = corr (Xt ; Xth ) = p

Dnition 34 On appelera matrice dautocorrlation du vecteur (Xt ; Xt1 ; :::; Xth+1 )


2

6
6
6
6
6
R (h) = 6
6
6
6
4

1
(1)
(2)

(h 1)

(1)
1
(1)

(2)
(1)
1
..
.

(h 2) (h 3)

..

..

..

..

1
(1)

3
(h 1)
(h 2) 7 2
7
7
6
(h 3) 7
7 6
R (h 1)
7=6
7 4
7

7
(h 1) (1)
(1) 5
1

3 3
(h 1)
6
7 7
..
4
5 7
.
7
5
(1)
1

On peut noter que det R (h) 0 pour tout h 2 Nn f0g. Cette proprit implique un certain nombre de contraintes
sur les X (i). Par example, la relation det R (2) 0 implique la contrainte suivante sur le couple ( (1) ; (2)) :
h
i
[1 (2)] 1 + (2) 2 (1)2 0;
p
ce qui fait quil ne peut y avoir de chute brutale de (1) (2) : il est impossible davoir (2) = 0 si (1) 1= 2.
Ces fonctions sont estimes, pour un chantillon X1 ; :::; XT , de la faon suivante :
Th
1 X
(h)
b
(h) =
b
Xt Xth et
b (h) =
;
T h
b (0)

t=1

(quand le processus est centr, sinon, il faut considrer (Xt ) (Xth )).

79

Sries temporelles : thorie et applications

6.3.2

Arthur CHARPENTIER

Autocorrlations partielles

Les deux prcdentes mesures de dpendence entre Xt et Xt+ h ne faisaient intervenir que les variables Xt et Xt+h .
Nous allons introduire ici une notion faisant intervenir les variables intermdiaires. Nous supposerons, sans perte de
gnralit que le processus (Xt ) est centr : E (Xt) = 0 pour tout t.
Dnition 35 Pour une srie stationnaire (Xt), on dni la fonction dautocorrlation partielle h 7! X (h)
par

bt ; X
b th ;
X (h) = corr X
o

b th = Xth E L (Xth jXt1 ; :::; Xth +1 )


X
b t = Xt EL (Xt jXt 1 ; :::; Xt h+1 ) :
X

On regarde ici la pro jection (ou lesprance linaire) les deux valeurs extrmes Xt et Xth sur lensemble des
valeurs intermdiaires t1
h1 = fXt1 ; :::; Xth+1 g. Cette pro jection peut scrire, dans le cas de Xt
E L (Xt jXt 1 ; :::; Xth+1 ) = a1 (h 1) Xt 1 + a2 (h 1) Xt 2 + ::: + ah 1 (h 1) Xth+ 1:
On peut aussi crire, en ra joutant Xth ; et en pro jetant ainsi sur t1
h ,
EL (XtjXt1 ; :::; Xt h ) = a1 (h) Xt1 + a2 (h) Xt2 + ::: + ah1 (h) Xt h+1 + ah (h) Xth :

(19)

Il est alors possible de montrer que


EL (Xt jXt 1 ; :::; Xt h+1 ) = a1 (h 1) Xt 1 + a2 (h 1) Xt2 + ::: + ah1 (h 1) EL (Xth jXt1 ; :::; Xth+1 ) :
On a alors
h1
X
i=1

ai (h 1) Xt i =

h1
X

ai (h) Xti + ah (h)

i=1

h
X1
i=1

ah i (h 1) Xt i:

Aussi, on a le rsultat suivant, permettant dobtenir les coecients de faon rcursive


Proprit 26 Pour j = 1; :::; h 1
(20)

aj (h) = aj (h 1) ah (h) + ah j (h 1)

Toutefois, cette mthode rcursive nest possible qu condition de connatre ah (h). Pour cela, on peut utiliser le
rsultat suivant,
Lemme 1 En notant i le coecient dautocorrlation, i = corr (Xt ; Xti), alors
P 1
(h) h
i=1 (h i) ai (h 1)
a h (h) =
:
Ph1
1 i=1 (i) ai (h 1)

(21)

Preuve. De (19), on peut dduire

(h) = (h 1) a1 (h) + ::: + (1) ah1 (h) + ah (h) ; puisque (0) = 0;


cest dire
ah (h) = (h) [ (h 1) a1 (h) + ::: + (1) ah 1 (h)] = (h)
En utilisant (20), on peut crire
ah (h) = (h)

" h1
X
i=1

(h i) ai (h 1) ah (h) :

h1
X
i=1

i=1

(h i) ai (h) :
#

(i) ai (h 1) :

On peut dailleurs noter que lon a la relation suivante


2
3
2
3
a1 (h)
(1)
6
7
..
1 6
. 7
a (h) = 4
5 = R (h) 4 .. 5 :
.
ah (h)
(h)
80

h1
X

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dnition 36 Lalgorithme rcursif bas sur (20), (21) et la condition initiale a1 (1) = (1) est appel algorithme
de Durbin.
De (20) on peut en dduire en particulier que
a1 (h) = a1 (h 1) + ah (h) ah1 (h 1) ;
et de (21) ; que pour h 2,
ah (h) =

(1) ah 1 (h 1)
:
1 (1) a1 (h 1)

Ces deux quation permettent dobtenir rcursivement les deux coecients extrmes a1 (h) et ah (h) pour tout h.
Proprit 27 Soit (Xt ) un processus stationnaire, alors X (0) = 1, et, pour h 1, X (h) est le coecient relatif
Xth dans la projection de Xt sur Xt 1 ; :::; Xt h+1 ; Xth , soit ah (h).
Preuve. Cette proprit sobtient en notant que
EL (XtjXt1 ; :::; Xth ) EL (XtjXt1 ; :::; Xt h+1 ) = ah (h) [Xth E L (Xt hjXt1 ; :::; Xt h+1 )] :

Thorme 6 Il est quivalent de connatre la fonction dautocorrlation (X (h)) ou la fonction dautocorrlation


partielle ( X (h)).
Preuve. (i) Lalgorithme de Durbin a montr que la connaissance des X (h) permet de construire de faon
rcursive les fonctions X (h).
(ii) Rciproquement, la relation inverse sobtient par rcurence, en notant que a1 (1) = X (1) = X (1), et que
2
3 2
3
2
3
a1 (h)
(h 1)
(1)
6
7 6
7
6
7
..
..
..
R (h 1) 4
5+4
5 ah (h) = 4
5;
.
.
.
ah1 (h)

et

(h 1)

(h 1)

(1)

(1)

6
4

a 1 (h)
..
.
ah 1 (h)

7
5 + ah (h) = (h) :

Exemple 39 En particulier, on peut noter que


X (1) = X (1) et X

h
i
2
X (2) X (1)
h
i
(2) =
1 X (1)2

Une autre formulation consiste dire que la fonction dautocorrlation partielle mesure la corrlation entre Xt et
Xth une fois retire linuence des variables antrieures Xth . En reprenant les notations de la partie prcdante,
2
3
1
(1)
(2)
(h 3) (h 2) (h 1)
6 (1)
1
(1)
(h 4) (h 3) (h 2) 7
6
7
6
7
..
6 (2)
. (h 5) (h 4) (h 3) 7
(1)
1
6
7
6
7
..
..
..
R (h) = 6
7
.
.
.
6
7
6
7
.
6 (h 3) (h 4) (h 5) . .
1
(1)
(2) 7
6
7
4 (h 2) (h 3) (h 4)
(1)
1
(1) 5
(h 1) (h 2) (h 3)
(2)
(1)
1

81

Sries temporelles : thorie et applications

Arthur CHARPENTIER

et on introduit de faon analogue la matrice R (h) obtenue en remplaant la


0
[ (1) ; :::; (h)] ,
2
1
(1)
(2)
(h 3)
6 (1)
1

(1)
(h 4)
6
6
..
6 (2)
. (h 5)
(1)
1
6
6

.
.
..
..
..
R (h) = 6
.
6
6
.
6 (h 3) (h 4) (h 5) . .
1
6
4 (h 2) (h 3) (h 4)
(1)
(h 1) (h 2) (h 3)
(2)
Il est alors possible de montrer simplement que

X (h) =
6.3.3

dernire colonne de R (h) par le vecteur


(h 2)
(h 3)

(1)
(2)

7
7
7
(h 4)
(3) 7
7
7
7
7
7
(1)
(h 2) 7
7
1
(h 1) 5
(1)
(h)

jR (h)j
pour tout h.
jR (h)j

Densit spectrale

Comme nous lavon dj mentionn, il est quivalent de connatre la fonction dautocorrlation et la densit spectrale
du processus.
P+1
Proprit 28 Soit (Xt) un processus stationnaire de la forme Xt = m + j=0 aj "tj o (" t) est un bruit blanc et
P+1
P
j=0 jaj j < +1, alors
h2Z jX (h)j < +1.
Preuve.

Or, comme ("t ) est un bruit blanc,

X X

:
jX (h)j =
a
a

(h
+
j

k)
j k "

h2 Z
h2Z j;k
X

" (h + j k) =
et donc,

0 si h + j k 6= 0
2" si h + j k = 0;

0
12

X X
X
X

2"
j X (h)j =
aj ah+j 2"
jaj j jah+j j = 2" @
aj A < +1:

h2Z
h 2Z
j
h;j
j
X

Proprit 29 La densit spectrale du processus (Xt ) est dnie par


1 X
1 X
fX (!) =
X (h) exp(i!h) =
X (h) cos(!h):
2
2
h 2Z

h 2Z

Preuve. En eet,

f X (!) =

"

1
X (0) +
2
2

X (h)e i!h +

h>0

X (h)ei!h =

h <0

1 6
4X (0) +
2

X (h)e i!h +

h>0

= 2 cos(!h)

h>0

X
X
1 6
1
7
4X (0) +
X (h) (ei!h + ei!h )5 =
X (h) cos(!h)5
4X (0) +
|
{z
}
2
2
h>0
h6=0
1 X
X (h) cos(!h):
2
h2Z

On peut dailleurs noter que si ("t) est un bruit blanc de variance 2 , on a alors
("t ) B B(0; 2 ) ) f "(!) =
82

"
:
2

7
X (h) ei!h 5
| {z }
= X (h)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Proprit 30 Avec les notations prcdentes, on a le thorme dinjectivit suivant,


Z
Z
8h 2 Z; X (h) =
f X (!)ei!h d! =
f X (!) cos(!h)d!:
[ ;]

[ ;]

Preuve. En eet,
Z

i!h

f X (!)e

d!

1
2

[ ;]

[ ;]

i! k

X (k)e

k2Z

ei!h d!

Z
!
1 X
i! (kh)
X (k)
e
d! (daprs Fubini)
2
[ ; ]
k2 Z
| 8
{z
}
< 0 si k 6= h
=
: 2 si k = h

= X (h):

Proprit 31 Soient ("t) un bruit blanc, et considrons les processus (Xt) et (Yt ) dnis par
X
X
X
X
Xt =
aj "t j et Y t =
bk Xtk
o
jaj j ;
jbj j < +1;
j2 Z

alors Yt =

k2Z c k "t k ,

k2Z

et de plus,

2
X

i!k
f Y (!) = fX (!)
bk e :

k2Z

Preuve. Il sut de noter que


Yt =

bk Xtk

k2Z

k2Z

0
1
X
X
bk @
aj "t kj A =
aj b k "t(k+j)

j;h2 Z

j2Z

aj bh j " th =

h2Z

et de plus, la densit spectrale scrit


f Y (!)

@
|

j;k2Z

j2 Z

aj b hj A" th :
{z

=ck

0
1
X X
1 X
1
@
Y (h)ei!h =
b j b k X (h + j k)A ei!h
2
2
h2 Z

1
2
1
2

h 2Z

h; j;k2Z

j;k2Z

bj b k X (h + j k)ei!(h+j k) e i!j ei!k

X (l)e i!l

l2 Z

!0

2
X

i!k
= f X (!)
bke :

X
j2Z

1
!
X
b j ei! j A
b k e i!k
k2Z

k2 Z

6.3.4

Autocorrlations inverses

Cette notion a t introduite en 1972 par Cleveland, et Chateld en a prcis les principales charactristiques en 1979.
Etant donn un processus (Xt ) stationnaire, de fonction dautocovariance X et de densit spectrale fX ; il se peut
que 1=f X soit interprtable comme une densit spectrale (par exemple ds lors que 1=fX est continue).
83

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dnition 37 La fonction dautocovariance inverse i X est la fonction dautocovariance associe au spectre inverse 1=f ,
Z +
1
1
1 X
i X (h) =
exp (i!h) d! ou
=
i X (h) exp (i!h) :
fX (!)
2
f X (!)
h2Z

De la mme faon que prcdement, on peut alors dnir une autocorrlation inverse,
Dnition 38 La fonction dautocorrlation inverse i X est dnie par,
i (h) =

i X (h)
:
iX (0)

Considrons une srie (Xt ) stationnaire, de processus dautocovariance (h) pour h 2 Z. On dnit alors la
fonction gnratrice dautocovariance comme le polynme (doprateurs retards ) suivant
(L) = ::: + (1) L1 + (0) I + (1) L + (2) L2 + ::: =

+1
X

(k) Lk ;

k=1

et de faon similaire, on peut dnir la fonction gnratrice dautocorrlation. La fonction gnratrice dautocovariance
inverse, note i (L) est dni par i (L) (L) = I et est telle que
i (L) = ::: + i (1) L1 + i (0) I + i (1) L + i (2) L2 + ::: =

+1
X

i (k) Lk = (L)

k=1

Exemple 40 Dans le cas dun processus dit ARM A (p; q) (voir partie (6:6)), dnit par une relation de la forme
(L) Xt = (L) " t o "t est un bruit blanc, et o et sont respectivement des polynmes de degr p et q. La
fonction gnratrice dautocovariance inverse est donne par

(L) L 1 1
i (L) =
:
o 2 est la variance du bruit blanc " t
(L) (L1 ) 2
Dans le cas o la composante moyenne mobile nexiste pas ( = I, on parle alors de processus AR (p)),on peut alors
en dduire simplement que lautocovariance inverse est donne par
Pph
j=0 j j+h
i (h) =
pour h p et i (h) = 0 pour h p
Pp
2
j=0 j
avec la convention 0 = 1. Aussi, pour les processus AR (p), les autocorrlations inverses sannulent au del du
retard p (de la mme faon que les autocorrlations partielles). Bhansali a montr en 1980 que pour un bruit blanc,
les autocorrlations inverses empiriques suivent un bruit blanc de loi normale de moyenne nulle et de variance 1=n.
Ainsi, la signicativit des coecients dautocorrlation inverse peut tre teste, au seuil de 5%, en la comparant avec
p
1:96= n:

Il est galement possible de dnir les autocorrlations partielles inverses (en utilisant une construction analogue
celle dveloppe dans la partie prcdante, en remplaant les par les i). Comme la montr Bhansali (1980 1983)
et Cleveland et Parzen, les autocorrlations partielles inverses peuvent tre obtenus laide de mthodes rcursives
(proches de celle de Durbin ).
Remarque 32 On peut noter la correspondance suivante
autocorrlations
partielles
l
autocorrlations
inverses

autocorrlations
l
autocorrlations
partielles inverses

En fait, comme nous le verrons par la suite, sur lidentication des modles ARM A, les autocorrlations permettent
de dtecter (entre autres) si une srie est intgre, et sil faut la direncier, alors que les autocorrlations partielles
permettent de vrier que la srie na pas t surdirencie.
Les autocorrlations et les autocorrlations inverses i sont identiques si et seulement si X est un bruit blanc
84

Sries temporelles : thorie et applications

6.3.5

Arthur CHARPENTIER

Complment : auto corrlogrammes de fonctions dterministes

Nous allons rappeler ici les formes des autocorrlogrammes, et des autocorrlogrammes partiels de sries non-stationnaires,
et dterministes.
Exemple 41 Fonction linaire Xt = a + bt
600
400
200
0
-200
-400
-600

200

400

600

800

1000

LINEAIRE

Exemple 42 Fonction puissance Xt = (1 + r)


160

120

80

40

200

400

600

800

1000

PUISSANCE

Exemple 43 Fonction logarithmique Xt = log (t)


4

0
200

400

600

800

1000

LOGARITHME

85

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 44 Fonction sinusodale Xt = sin (t=12)


1.5
1.0
0.5
0.0
-0.5
-1.0
-1.5

20

40

60

80

100

120

SINUS12

6.4

Les processus autorgressifs : AR (p)

Dnition 39 On appelle processus autoregressif dordre p, not AR (p), un processus stationnaire (Xt ) vriant une
relation du type
p
X
Xt
i Xti = "t pour tout t 2 Z,
(22)
i=1

o les i sont des rels et ("t ) est un bruit blanc de variance 2 . (22) est quivalent lcriture
(L) Xt = " t o (L) = I 1 L ::: p Lp

Il convient de faire toutefois attention aux signes, certains ouvrages ou logiciels considrant des polynmes de la
forme I + 1 L + ::: + p Lp .
Remarque 33 En toute gnralit, un processus AR (p) vrie une relation de la forme (L) Xt = + "t o
est un terme constant. De cette forme gnrale, il est possible de se ramener (22) par une simple translation : il
sut de consider non pas Xt mais Y t = Xt m o m = = (1). En eet, (L) (Y t + m) = + "t peut se rcire
(L) Y t + (1) m = + "t cest dire (L) Yt = "t . m correspond ici lesprance de (Xt).
6.4.1

Rcriture de la forme AR (p)

Comme nous lavons vu dans la partie (6:2:2), si lon souhaite inverser un polynme (en loccurence, prsenter Xt
comme une fonction des "t ), il convient de regarder les racines du polynme , en particulier leur position par rapport
1 (en module). Comme nous allons le voir dans cette partie, il est possible, lorsque les racines de sont de module
dirent de 1, quil est toujours possible de supposer les racines de module suprieur 1, quitte changer la forme
du bruit blanc.
Ecriture sous la forme M A(1) quand les racines de sont de module strictement suprieur 1 On
suppose (L)Xt = + "t o (L) = 1 ('1 L + + ' p L) et aussi que jzj 1 ) (z) 6= 0 (de telle sorte que les
racines de sont de module strictement suprieur 1 ). Daprs les rsultats noncs dans la partie sur les polynmes
doprateurs retards, (Xt) admet une reprsentation M A(1) i.e.
Xt = m +

+1
X
k=0

ak "t k

o a0 = 1; ak 2 R;

+1
X

k=0

jak j < +1:

On sait que (L)(Xt m) = "t, donc Xt m = (L) 1 ("t ):


Proprit 32 Sous ces hypothses, L(Xt ) = L("t ), o L(Xt) = L(1; Xt ; Xt1 ; : : : ; Xt p ; : : : ) et L(" t) = L(1; "t ; "t1 ; : : : ;
et de plus ("t) est linnovation de (Xt) :
P+ 1
Preuve. (i) Xt = + '1 Xt1 + + ' p Xtp + "t , qui peut se rcrire Xt = + k=0 at" tk donc Xt 2 L("t ) =
L(1; "t ; "t1 ; : : : ; "tk ; : : : ): Donc 8k 0; Xtk L("tk ) L("t ) On en dduit que L(1; Xt ; Xt1 ; : : : ; Xt k ; : : : )
L(" t) et donc L(Xt ) L("t ). Le second espace tant ferm, on en dduit que L(Xt) L("t ).
86

Sries temporelles : thorie et applications

Arthur CHARPENTIER

De la mme faon et comme " t = Xt ( + '1 Xt 1 + + ' p Xtp ), in obtient linclusion rciproque et nalement
L(Xt ) = L("t ).
b t, o
(ii) Linnovation de (Xt) vaut, par dnition, Xt X
bt
X

= E L(Xt jXt 1 ) = EL(Xt j1; Xt 1 ; : : : ; Xtk ; : : : )

= E L( + ' 1 Xt1 + + ' p Xtp + "t jXt 1 ) = + '1 Xt 1 + + 'p Xt p + E L("t jXt 1 ):
|
{z
}
2 L(X t1)

bt =
Comme L(Xt 1 ) = L("t 1 ), on a EL(" tjXt1 ) = E L("t j"t1 ) = 0 car (" t) est un bruit blanc. Finalement X
bt = "t : ("t ) est bien linnovation de (Xt ).
+ ' Xt1 + + ' Xtp et Xt X
1

Si (Xt ) est un processus AR (p), (L)Xt = + "t o les racines de sont lextrieur du disque unit, on dit que
la reprsentation (L)Xt = + "t est la reprsentation canonique de (Xt):

Ecriture sous la forme M A(1) quand certaines racines de sont de module strictement infrieur 1
On suppose que le processus (Xt ) scrit (L)Xt = + "t avec
2
32
3
p
Y
Y
Y
(L) =
(1 j L) = 4
(1 j L)5 4
(1 j L)5
j=1

j= jj j<1

j= jj j> 1

On peut alors montrer que lon naura pas L(Xt ) = L("t ), et donc ("t) nest pas linnovation.
Pour obtenir la reprsentation canonique il faut changer le polynme et le bruit blanc. On pose
2
32
3
Y
Y
z

(z) = 4
(1 j z)5 4
(1
)5
j
j= jj j< 1

j= jj j>1

de telle sorte que a toutes ses racines de module strictement suprieur 1.

Proprit 33 Soit ( t ) le processus tel que t = (L)Xt. Alors ( t ) est un bruit blanc.

2
Preuve. En eet, la densit spectrale de ( t ) est f (!) = fX (!) (ei! ) . Et comme (L)Xt = " t, on a aussi :

2
2
fX (!) (ei! ) = f" (!) = "
2

On peut alors crire

f (!) =

2
j= j j j<1
i! 2
2"
1

(e ) = " h
i
h
i
Q
2 j(ei! )j2
2 Q
i! 2
i! 2
j= j j j<1 j1 j e j
j= j j j>1 j1 j e j

2
2" Y
1 j ei!
2 Y
1
= "
2
2
2
i!
2
2
j j j j1 j e j
j j j
j; j j j>1
j; j j j>1
|
{z
}
hQ

i Q
1 j ei! 2

j= jj j>1 1

ei!
j

=1

On a donc

f (!) =

2
2"
=
avec =
2
2

j; j j j>1

1
j j j2

<1

et nalement ( t ) est un bruit blanc:


La reprsentation (L)Xt = t est alors la reprsentation canonique de (Xt ) et ( t ) est linnovation de (Xt ).
6.4.2

Proprits des autocorrlations - les quations de Yule-Walker

Le processus (Xt) scrit


Xt = 1 Xt1 + 2 Xt2 + ::: + p Xtp + " t:

87

(23)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

En multipliant par Xt , on obtient


Xt2

= 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "t Xt

= 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "t 1 Xt 1 + 2 Xt2 + ::: + p Xt p + "t

= 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "2t + 1 Xt1 + 2 Xt 2 + ::: + p Xt p " t;

do, en prenant lesprance

(0) = 1 (1) + 2 (2) + ::: + p (p) + 2 + 0;


le dernire terme tant nul car "t est suppos indpendant du pass de Xt ; fXt1 ; Xt2 ; :::; Xtp ; :::g. De plus, en
multipliant (23) par Xt h , en prenant lesprance et en divisant par (0), on obtient
(h)

p
X
i= 1

i (h i) = 0 pour tout h > 0:

Cette suite dquations dnit le systme dquation dit de Yule-Walker :


Proprit 34 Soit (Xt ) un processus AR (p) dautocorrlation (h). Alors
2

(1)
(2)
(3)
..
.

6
6
6
6
6
6
6
4 (p 1)
(p)

3
7
7
7
7
7
7
7
5

6
6
6
6
6
6
=6
6
6
6
6
4

(1)

(2)

(1)

(1)

(2)
..
.

(1)

1
..

..

.
(p 1) (p 2)

(p 3)

De plus les (h) dcroissent exponentiellement vers 0.

..

..

..

..

3
(p 1) 7 2
1
7
..
. (p 2) 7 6 2
76
7 6 3
6
(p 3) 7
7 6 ..
7
6
..
76 .
.
7 4 p1
7
p
1
(1) 5
(1)
1

3
7
7
7
7
7
7
7
5

Preuve. En eet, 8h > 0; (h) ' 1 (h 1) ' p (h p) = 0. Le polynme caractristique de cette relation
de rcurrence est :

'p1
'p
'
1
z p ' 1 z p 1 ' p1 z ' p = z p 1 1 p1 p = zp ( );
z
z
z
z

avec (L)Xt = "t et(L) = 1 '1 L ' p Lp . Les racines du polynme caractristique sont les i = z1i (les zi tant
les racines de ) avec j ij < 1. La forme gnrale de la solution est, si z1 ; : : : ; zn sont des racines distinctes de de
multiplicits respectives m1 ; : : : ; mn
n m
i 1
X
X
(h) =
ik ki h k
i=1 k=0

cest dire que (h) dcroit vers 0 exponentiellement avec h.


Par inversion, il est possible dexprimer les i en fonction des (h). La mthodologie dveloppe dans la partie
(6:3:2) permet dobtenir les autocorrlations partielles (h). Il est possible de montrer le rsultat suivant

Proprit 35 (i) Pour un processus AR (p) les autocorrlations partielles sont nulles au del de rang p, (h) = 0
pour h > p:
(ii) Pour un processus AR (p) les autocorrlations inverses sont nulles au del de rang p, i (h) = 0 pour h > p:
Preuve. (i) Si (Xt ) est un processusAR(p) et si (L)Xt = + "t est sa reprsentation canonique, en notant (h)
le coecient de Xth dans E L(Xt jXt1 ; : : : ; Xt h ) alors,
Xt = +

' 1 Xt1 + + ' p Xtp


|
{z
}

+ "t

2L(1;X t; :::;X tp) L(1;X t;::: ;Xth )

de telle sorte que


E L(Xt jXt1 ; : : : ; Xt h ) =
=

+ ' 1 Xt1 + + ' p Xtp + E L("t jXt1 ; : : : ; Xt h )


+ ' 1 Xt1 + + ' p Xtp + 0
88

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Aussi, si h > p, le coecient de Xth est 0. et si h = p, le coecient de Xtp est 'p 6= 0.


(ii) Les autocorrlation inverses sont dnies par i(h) = i(h)=i (0) o
Z
1
i (h) =
e i!h d!:
f X (!)
Si (L)Xt = "t la densit spectrale de (Xt) vrie

2
2
2
1
f X (!) (ei! ) = f "(!) = " donc f X (!) = "
:
2
2 j(e i! )j2

Par consquent,

2
1
2
= 2 (e i! )
f X (!)
"

Aussi, si (z) = 1 + z + ::: + p z p (i.e. 0 = 1 et k = k ),


1
2
= 2
fX (!)
"

p
X

k e i!k

k=0

!0
@

p
X

k=0k

et donc, les autocovariances inverses sont dnies par


i (h) =

ei!k A =

2
2"

k l ei!(kl) ;

0k;l p

Z
2 X

e i!( k l+h )d! :


2" 0k;l p k l
|
{z
}
=0 sau f si kl+h=0

Or k l 2 [p; p] donc si h > p, i (h) = 0. En revanche si h = p,


i(p) =

4 2
4 2
0 p = 2 ' p 6= 0:
2
"
"

Cette mthode pourra tre utilise pour identier les processus AR (p) :
6.4.3

Le processus AR (1)

La forme gnral des processus de type AR (1) est


Xt Xt1 = "t pour tout t 2 Z,
o ("t) est un bruit blanc de variance 2 .
(i) si = 1, le processus (Xt ) nest pas stationnaire: Par exemple, pour = 1, Xt = Xt1 + "t peut scrire
Xt Xt h = "t + " t1 + ::: + " th+1 ;
2

et donc E (Xt Xt h) = h 2 . Or pour un processus stationnaire, il est possible de montrer que E (Xt Xt h)
4V (Xt). Puisquil est impossible que pour tout h, h 2 4V (Xt), le processus nest pas stationnaire.
Si jj 6= 1, il existe un unique processus stationnaire tel que Xt Xt 1 = " t pour tout t 2 Z, ou
(1 L) Xt = "t :
(ii) si jj < 1 alors on peut inverser le polynme, et
Xt = (1 L)1 "t =

1
X

i" ti (en fonction du pass de ("t ) ).

i= 0

(iii) si jj > 1 alors on peut inverser le polynme, et


1
Xt = F

1
F

"t =

1
X

i" t+i (en fonction du futur de ("t ) ).

i=1

89

(24)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La reprsentation canonique est alors


Xt
o
1

t = (1 F ) (1 L)

1
Xt 1 = t;

X
"t = " t+1 + 1 2
i "ti :
i=0

Proprit 36 La fonction dautocorrlation est donne par (h) = h :


Preuve. Cette expression sobtient partir des relations du type (24) ; ou en notant que (h) = (h 1).
La densit spectrale dun processus AR (1) est de la forme
f (!) =

2
1
;
2
2 1 + 2 cos !

qui correspond au graphique ci-dessous, avec > 0 (les courbes sont ici prsentes dans la mme base 1 : f (0) = 1),

=5

= 0.5
= 1.05
0

/6

= 2.5

= 0.8
/3

/2

2/3

5/6

Les valeurs les plus importantes sont obtenues aux basses frquences, les fonctions tant dcroissantes sur [0; ].
Dans les trois exemples ci-dessous, les " t seront pris gaussiens, "t s N (0; 1)
Exemple 45 Processus AR (1), = 0:2 - Dans le cas o est relativement faible
3
2
1
0
-1
-2
-3
20

40

60

80

100 120 140 160 180 200


AR11

90

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 46 Processus AR (1), = 0:5 - Dans le cas o ngatif


4

-2

-4
20

40

60

80

100 120 140 160 180 200


AR12

Exemple 47 Processus AR (1), = 0:85 - Dans le cas o est proche de 1


6
4
2
0
-2
-4
-6

20

40

60

80

100 120 140 160 180 200


AR13

Remarque 34 Les graphiques ci-dessous reprsentent des simulations de processus AR (1), avec dirents coecients
, repectivement, de gauche droite et de bas en haut 0:1, 0:5, 0:9, 0:95, 1, puis 1:002, 0:5, 0:9, 1 et 1:001,
4

10

15

40

10

20
5

-5

-2

-4

-5

-2

-4

500

1000

1500

2000

-20
-10

500

1000

1500

-10
2000

500

AR1_050

AR1_010

50

-50

1000

1500

-15
2000

500

AR1_090

1000

1500

2000

-40
500

AR1_095

1000

1500

2000

AR1_10

30

150

20

100

400

10

50

200

-10

-50

-200

-20

-100

-400

-30
2000

-150
2000

600

-4

-100
-150

-8

-200

-12

500

1000
AR1_1002

1500

2000

500

1000
AR1_M090

1500

500

1000
AR1_M099

1500

500

1000
AR1_M100

1500

-600
2000

500

1000

1500

2000

AR1_M1001

Comme on peut le voir, on retrouve une marche alatoire pour 1, et des processus explosifs quand jj > 1.
A retenir 6 Un processus AR (1) : Xt = Xt1 + "t sera auto-corrl positivement si 0 < < 1, et autocorrl
ngativement si 1 < < 0. Cette srie va osciller autour de 0, en sen cartant suivant la valeur "t du processus
dinnovation (si 1 < < +1). Si = +1, on obtient une marche alatoire, et si > +1 ou < 1 le processus

91

Sries temporelles : thorie et applications

Arthur CHARPENTIER

nest par stationnaire, et on obtient un modle qui explosera ( moyen terme). La valeur , dans le cas o le processus
est stationnaire, est la corrlation entre deux dates conscutives = corr (Xt ; Xt1 ).
8

> 0 dcroissance exponentielle


>
>
< Fonction dautocorrlation
< 0 sinusode amortie

AR (1) :
>
premire non nulle (signe = signe de )
>
: Fonction dautocorrlation partielle
toutes nulles aprs
6.4.4

Le processus AR (2)

Ces processus sont galement appels modles de Yule, dont la forme gnrale est

1 1 L 2 L2 Xt = "t ;

o les racines du polynme caractristique (z) = 1 1 z 2 z 2 sont supposes lextrieur du disque unit (de telle
sorte que le processus "t corresponde linnovation). Cette condition scrit
8
< 1 1 + 2 > 0
1 + 2 > 0
: 2 1
1 + 42 > 0;
cest dire que le couple (1 ; 2 ) doit se trouver dans une des 4 parties ci-dessous,
2

La fonction dautocorrlation satisfait lquation de rcurence


(h) = 1 (h 1) + 2 (h 2) pour h 2;

et la fonction dautocorrlation partielle vrie


8
>
<
h (1) pour h =i 1 h
i
2
2
a (h) =
(2) (1) = 1 (1) pour h = 2
>
:
0 pour h 3:
Exemple 48 Processus AR (0:5; 0:3) - cas 1 6
4
2
0
-2
-4
-6

20

40

60

80

100 120 140 160 180 200


AR21

92

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 49 Processus AR (0:5; 0:3) - cas 2 6


4
2
0
-2
-4

20

40

60

80

100 120 140 160 180 200


AR22

Exemple 50 Processus AR (0:5; 0:7) - cas 3 6


4
2
0
-2
-4

20

40

60

80

100 120 140 160 180 200


AR23

Exemple 51 Processus AR (0:5; 0:7) - cas 4 4

-2

-4
20

40

60

80

100 120 140 160 180 200


AR24

Dans le cas dun modle AR (2) avec constante, de la forme 1 1 L 2 L2 Xt = 0 + "t on peut alors noter
que lesprance de Xt est
0
E (Xt ) =
ds lors que 1 + 2 6= 1:
1 1 2
En utilisant les quations de Yule Walker, nous avions not que la fonction dautocorrlation vriait la relation de
rcurence suivante,

(0) = 1 et (1) = 1 = (1 2 ) ;
(h) = 1 (h 1) + 2 (h 2) pour h 2;
93

Sries temporelles : thorie et applications

Arthur CHARPENTIER

cest dire que le comportement de cette suite peut tre dcrit en tudiant le polynme caractristique
associ,

q
2
2
x 1 x 2 = 0. Dans le cas o le polynme admet deux racines relles, ! 1 et !2 o ! = 1 1 + 42 =2,

alors le polynme autorgressif peut scrire 1 1 L 2 L2 = (1 ! 1 L) (1 ! 2 L) : le modle AR (1) peut tre


vu alors comme un modle AR (1) appliqu un processus AR (1). Lautocorrlogramme prsente une dcroissante
suivant un mlange dexponentielles. Quand les racines sont complexes (conjugues ), alors les (h) prsentent

p une

volution sinusodale amortie. On obtient alors des cycles stochastiques, de longueur moyenne 2= cos 1 1 =2 2 .
A retenir 7 Le comportement dun processus AR (2) : Xt = 1 Xt1 + 2 Xt 2 + "t dpendra fortement des racines
de son quation charactristique 1 1 :z 2 :z 2 = 0. Le cas le plus intressant est celui o lquation charactristique
a deux racines complexes conjugues r exp (i) pour r < 1 : le processus est alors stationnaire (et oscille alors
autour de 0, sans exploser, de la mme faon que les processus AR (1) dans le cas o jj < 1). Le processus est alors
quasi-cyclique, de frquence , avec un bruit alatoire.
8
dcroissance
exponentiel le ou sinusode amortie
< Fonction dautocorrlation

AR (2) :
deux premires non nulles
: Fonction dautocorrlation partielle
toutes nulles aprs

6.5

Les processus moyenne-mobile : M A (q)

Dnition 40 On appelle processus moyenne mobile (moving average) dordre q, not M A (q), un processus stationnaire (Xt ) vriant une relation du type
Xt = " t +

q
X
i=1

i "ti pour tout t 2 Z,

(25)

o les i sont des rels et ("t) est un bruit blanc de variance 2 . (25) est quivalent lcriture
Xt = (L) "t o (L) = I + 1 L + ::: + q Lq :
Remarque 35 Encore une fois, nous allons utiliser dans cette partie des modles de la forme (25), toutefois, dans
certains ouvrages, la convention est dcrire ces modles sous la forme (L) = I 1 L ::: q Lq . En particulier
pour les logiciels dconomtrie, il convient de vrier le signe attribu aux coecients de la forme M A (cf exercice
15 de lexamen de 2002=2003).
Contrairement aux processus AR (p), les processus
M A (q) sont toujours des processus stationnaires. Les processus
P1
M A (1) sont stationnaires si et seulement si i=1 2i est nie. Pour rappel, un processus AR (p) est stationnaire si
les racines du polynme retard sont lextrieur du cercle unit.
De la mme faon que pour les AR (p), il est possible dinverser le polynme dans le cas o ses racines sont de
module dirent de 1 (quitte changer des bruit blanc, comme pour les processus AR). Supposons que nait pas de
racines de module gal 1, et considrons le polynme obtenu en remplaant les racines de de module infrieur
1 par leur inverse. Le processus ( t ) dni par la relation Xt = (L) t est l aussi un bruit blanc, dont la variance
2 est dnie par
" p
# 1
Y
2
2
2
=
ji j
;
i=r+ 1

o i sont les racines de module infrieur 1. Aussi, la variance de ( t ) est ici suprieure celle de ("t ). Par le suite,
on supposera que le processus M A est sous forme canonique, cest dire que toutes les racines de sont de module
suprieur 1.
6.5.1

Proprits des autocorrlations

La fonction dautocovarariance est donne par


(h) =
=
=

E (Xt Xth )
E (["t + 1 "t1 + ::: + q "tq ] ["th + 1 "t h1 + ::: + q "t hq ])

[ h + h+1 1 + ::: + q q h] 2 si 1 h q
0
si h > q;
94

Sries temporelles : thorie et applications

avec, pour h = 0, la relation


Cette dernire relation peut se rcrire

Arthur CHARPENTIER

(0) = 1 + 21 + 22 + ::: + 2q 2 :

(k) = 2

q
X

j j+ k avec la convention 0 = 1:

j=0

Do la fonction dautocovariance,
(h) =

h + h+1 1 + ::: + q q h
1 + 21 + 22 + ::: + 2q

si 1 h q;

et (h) = 0 pour h > q.


On peut noter en particulier que (q) = 2 q 6= 0, alors que (q + 1) = 0. Cette proprit sera relativement
pratique pour faire lestimation de lordre de processus M A.
Exemple 52 Le graphique ci-dessous montre lvolution dun processus M A (5), avec un bruit blanc gaussien, de
variance 1, avec droite, lautocorrlogramme associ, pour
Xt = " t 0:7" t1 + 0:8"t 2 + 0:3"t3 0:1" t4 + 0:7"t 5 ;
6
4
2
0
-2
-4
-6
20

40

60

80 100 120 140 160 180 200


MA5

On retrouve bien sur cette simulation de processus M A (5) le fait que les autocorrlations sannulent pour h > 5.
A retenir 8 Les processus M A sont toujours stationnaire, mais ils ne sont inversibles que si les racines du polynme
charactristiques sont lextrieur du disque unit.
On peut noter que sil ny a pas de rsultat particulier pour les autocorrlations partielles, on a malgr tout le
rsultat suivant
Proprit 37 Si (Xt) suit un processus M A (q), Xt = (L)"t = "t + 1 "t 1 + ::: + q "t q , alors les autocorrlations
inverves i (h) satisfont les quations de Yule-Walker inverse,
i (h) + 1i (h 1) + ::: + q i (h q) = 0 pour h = 1; 2; :::; q:
En particulier, i(h) dcroit exponentiellement avec h.
Preuve. Par dnition i(h) = i(h)=i (0) avec i(h) =
f X (!) =

1
ei!h d!.
fX(! )

On peut alors crire, si Xt = (L)" t

2
2"
1
2
(ei! ) et donc
=
:
2
2
f X (!)
2" j(e i! )j

Soit (Y t )t2Z un processus tel que (L)Y t = t i.e. (Y t ) suit un processus AR (q), et

2
2
= fY (!) (ei! ) :
2
95

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Donc :
fY (!) =
de telle sorte que
fY (!) =

6.5.2

2
1
;
2 j(ei! )j2

2
1
2
4 2
() 2 =
() 2 = 2 :
fX (!)
"
2
"

Le processus M A (1)

La forme gnrale des processus de type M A (1) est


Xt = "t + " t1 ; pour tout t 2 Z,
o ("t) est un bruit blanc de variance 2 . Les autocorrlations sont donnes par
(1) =

1 + 2

; et (h) = 0; pour h 2:

On peut noter que 1=2 (1) 1=2 : les modles M A (1) ne peuvent avoir de fortes autocorrlations lordre 1.
Lautocorrlation partielle lordre h est donne par
(h) =

h
(1) h 2 1
1 2(h+1)

et plus gnrallement, les coecients de rgression sont donns par


i

a i (h) =

(1) i
1 2h+2

(1) 2h+ 2i
1 2h+2

dans le cas o 6= 1.
La densit spectrale dun processus M A (1) est de la forme
fX (!) =

2
1 + 2 + 2 cos ! ;
2

correspondant un trend dterministe, auquel vient sajouter une constante. De cette dernire expression, on peut en
dduire aisment que les autocorrlations inverses, dans le cas dun processus M A (1) vrient
i (h) =

1 + 2

pour tout h 1.

Exemple 53 Processus M A (0:2) - Dans le cas o est relativement faible


3
2
1
0
-1
-2
-3
20

40

60

80

100 120 140 160 180 200


MA11

96

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 54 Processus M A (0:5) - Dans le cas o positif


3
2
1
0
-1
-2
-3
-4

20

40

60

80

100 120 140 160 180 200


MA12

Exemple 55 Processus M A (0:85) - Dans le cas o est proche de 1


4

-2

-4
20

40

60

80

100 120 140 160 180 200


MA13

Remarque 36 Les graphiques ci-dessous reprsentent des simulations de processus M A (1), avec dirents coecients
, repectivement, de gauche droite 0, 1, 2, 5,1 et 2
6

10

20

10

10

-5

-10

-5

4
2

2
0

-2
-2

-4
-4

500

1000

1500

2000

-10

-6
500

MA1_0

1000

1500

2000

-20
500

1000

1500

2000

500

MA1_2

MA1_1

1000

1500

-10
2000

500

MA1_5

Comme on peut le voir, ces processus sont toujours stationnaires, quel que soit .
A retenir 9

M A (1) :

6.5.3

8
>
>
< Fonction dautocorrlation

>
>
: Fonction dautocorrlation partielle

premire non nulle (signe = signe de )


toutes nulles aprs
> 0 dcroissance exponentielle
< 0 sinusode amortie

Le processus M A (2)

La forme gnrale de (Xt ) suivant un processus M A (2) est


Xt = " t + 1 "t1 + 2 "t 2 :
97

1000
MA1_M2

1500

2000

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La fonction dautocorrlation est donne par lexpression suivante


8

2
2
< 1 [1 + 2 ] = 1 + 1 + 2 pour h = 1
(h) =
= 1 + 21 + 22 pour h = 2
: 2
0 pour h 3;
et la densit spectrale est donne par

2
fX (!) = 1 + 1 ei! + 2 e2i! :

Les congurations possibles sont donnes dans les 4 examples ci-dessous


Exemple 56 Processus M A (0:5; 0:3) - cas 1 - les deux premires autocorrlations sont ngatives (et nulles
ensuite)
4

2
0
-2
-4
-6
20

40

60

80

100 120 140 160 180 200


MA21

Exemple 57 Processus M A (0:5; 0:3) - cas 2 - les deux premires autocorrlations sont telles que (1) 0 et
(2) 0 (puis nulles ensuite)
4

-2

-4

20

40

60

80

100 120 140 160 180 200


MA22

Exemple 58 Processus M A (0:5; 0:7) - cas 3 - les deux premires autocorrlations sont telles que (1) 0 et
(2) 0 (puis nulles ensuite)
4

-2

-4
20

40

60

80

100 120 140 160 180 200


MA23

98

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 59 Processus M A (0:5; 0:7) - cas 4 - les deux premires autocorrlations sont ngatives (et nulles ensuite)
4
3
2
1
0
-1
-2
-3
20

40

60

80

100 120 140 160 180 200


MA24

6.6

Les processus ARMA (p; q)

Cette classe de processus gnralise les processus AR (p) et M A (q) :


Dnition 41 On appelle processus ARM A (p; q), un processus stationnaire (Xt) vriant une relation du type
Xt

p
X

i Xti = "t +

i=1

q
X

j=1

i "ti pour tout t 2 Z,

(26)

o les i sont des rels et ("t) est un bruit blanc de variance 2 . (22) est quivalent lcriture

(L) = I + 1 L + ::: + q Lq
(L) Xt = (L) "t o
(L) = I 1 L ::: p Lp
On supposera de plus de les polymes et nont pas de racines en module strictement suprieures 1 (criture sous
forme canonique), et nont pas de racine commune. On supposera de plus que les degrs de et sont respectivement
q et p, au sens o q 6= 0 et p 6= 0. On dira dans ce cas que cette criture est la forme minimale.
Les processus ARM A (p; q) peuvent donc se mettre
(i) sous la forme M A (1) en crivant Xt = (L)1 (L) " t, si toutes les racines de sont lextrieur du disque
unit.
1
(ii) ou sous forme AR (1) en crivant (L) (L) Xt = "t ; si toutes les racines de sont lextrieur du disque
unit.
Remarque 37 Un processus AR (p) est un processus ARM A (p; 0) et un processus M A (q) est un processus ARM A (0; q) :
6.6.1

Proprits des autocorrlations

Proprit 38 Soit (Xt ) un processus ARM A (p; q), alors les autocovariances (h) satisfont
(h)

p
X
i=1

i (h i) = 0 pour h q + 1:

Preuve. La forme ARM A (p; q) de (Xt ) est


Xt

p
X

j Xtj = " t +

j=1

q
X

j "t j

j=1

En multipliant par Xth , o h q + 1, et en prenant lesprance, on obtient (27).


De plus, on a la relation suivante

99

(27)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Proprit 39 Soit (Xt ) un processus ARM A (p; q), alors les autocorrlations (h) satisfont
(h)

p
X
i=1

i (h i) = 2 [h + h 1 h+1 + ::: + h q h q ] pour 0 h q;

(28)

o les h i correspondent aux coecients de la forme M A (1) de (Xt ),


+1
X

Xt =

h j "t j :

j=0

Exemple 60 Les sorties ci-dessous correspondent aux autocorrlogrammes de processus ARM A (2; 1), ARM A (1; 2)
et ARM A (2; 2) respectivement de gauche droite

Pour tablir une rgle quant au comportement de la fonction dautocorrlation, deux cas sont envisager,
Si p > q, la fonction dautocorrlation se comporte comme un mlange de fonctions exponentielles/sinusodales
amorties
Si q p, le q p +1 premires valeurs de lautocorrlogramme ont un comportement propre, et pour k q p +1,
lautocorrlogramme tend vers 0.
Des proprits symtriques existent pour lautocorrlogramme partiel.
Remarque 38 Avec les notations (26), la variance de Xt est donne par
V (Xt) = (0) =
6.6.2

1 + 21 + ::: + 2q + 21 1 + ::: + h h
1 21 ::: 2p

2 o h = min (p; q) :

Densit spectrale des processus ARM A (p; q)

Proprit 40 La densit spectrale du processus ARM A (Xt ) stationnaire est une fraction rationnelle en exp (i!), et
est donne par
2
2 j (exp [i!])j
f X (!) =
:
2 j (exp [i!])j2
6.6.3

Les processus ARM A (1; 1)

Soit (Xt ) un processus ARM A (1; 1) dni par


Xt Xt1 = "t + "t1 ; pour tout t;
o 6= 0, 6= 0, jj < 1 et jj < 1. Ce processus peut de mettre sous forme AR (1), puisque
1

(1 L) (1 + L)
o

Xt = (L) Xt = "t ;

h
i
h
(L) = (1 L) 1 L + 2 L2 + ::: + (1) h Lh + :: ;
100

Sries temporelles : thorie et applications

aussi
(L) =

+1
X

iL o

i=0

Arthur CHARPENTIER

0 = 1
i = (1)i [ + ] i 1 pour i 1:

La fonction dautocorrlation scrit

(1) = (1 + ) ( + ) = 1 + 2 + 2
(h) = h (1) pour h 2;
et la fonction dautocorrlations partielles a le mme comportement quune moyenne mobile, avec comme valeur initiale
a (1) (1). La sortie ci-dessous montre lvolution de lautocorrlogramme dans le cas dun ARM A (1; 1)

A retenir 10
ARM A (1; 1) :

6.7

Fonction dautocorrlation
Fonction dautocorrlation partielle

dcroissance aprs le premier retard


dcroissance exponentielle ou sinusode amortie

Introduction aux modles linaires non-stationnaires

Tous les processus dcrits dans les parties prcdantes sont des processus stationnaires (Xt ). En fait, la plupart des
rsultats obtenus dans les parties prcdantes reposent sur lhypothse (trs forte) de stationnarit. Cest le cas par
exemple de la loi des grands nombres telle quelle est formule dans le thorme ergodique. On peut toutefois noter
quun certain nombre de processus, trs simples, sont non-stationnaires.
Exemple 61 Marche alatoire - La marche alatoire est dnie de la faon suivante : soit "1 ; :::; "t ; ::: une suite
de variables i:i:d: et on supposera que " t ademet une variance nie, note 2 . On supposera galement les "t centrs.
Une marche alatoire Y t vrie
Y t = Y t1 + " t; pour tout t;
avec la convention Y 0 = 0. On peut noter que Y t = Y 0 + Y 1 + ::: + Yt 1 . On a alors

s^t
E (Y t) = 0
, cov (Y s; Y t ) = 2 (s ^ t) et corr (Y s ; Yt ) = p
pour s; t 0:
V (Y t) = 2 t
st
En notant F t la ltration gnre par les Y0 ; :::; Y t , cest dire F t = fY 0 ; :::; Y tg, on peut montrer que
E (Y s jF t ) = Y t pour tout s t 0:
Aussi, le processus (Yt ), muni de sa ltration naturelle, est une martingale. La marche alatoire est stationnaire en
moyenne, mais pas en variance. La non stationnarit de cette srie pose de gros problme statistique : considrons
par exemple la moyenne dnie sur les n premires observations, soit
Yn =

n
1X
Yt ;
n
t=1

alors, de faon triviale, E Y n = 0 mais V Y n = O (n) : Plus prcisment, la variance de cette moyenne est

n (n + 1) (2n + 1)
V Y n = 2
:
6n2
101

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 62 Tendance linaire -Un processus tendance linaire est dni de la faon suivante : soit " 1 ; :::; " t; :::
une suite de variables i:i:d: et on supposera que "t ademet une variance nie, note 2 . On supposera galement les
"t centrs. Une tendance linaire Y t vrie
Y t = t + "t pour tout t, o 2 R.
Ce processus vrie

E (Y t ) = t
V (Y t ) = 2

cov (Ys ; Y t) = corr (Ys ; Y t) = 0 pour s; t 0;

et E (Y s jFt ) = s pour tout s t 0. Cest dire que ce processus nest pas une martingale, et les variables du
processus sont indpendantes (au sens non-corrles). En notant comme prcdemment Y n .la moyenne des n premires
observations, on a


n+1
2
E Yn =
et V Y n =
! 0 quand n ! 1:
2
n
Exemple 63 March alatoire avec drift - Ce processus est dni comme mlange des deux prcdants : soit Xt
une marche alatoire, soit Xt = Xt1 + "t , alors Y t , marche alatoire avec drift, est dni par
Yt

= t + Xt pour tout t, o 2 R

= [ + "1 ] + [ + "2 ] + ::: + [ + "t ] :


On a alors les proprits suivantes

E (Y t ) = t
V (Y t ) = 2 t

s^t
cov (Ys ; Y t) = 2 (s ^ t) et corr (Y s; Y t ) = p pour s; t 0;
st

et E (Ys jFt ) = s + Xt = [s t] + Yt pour tout s t 0.


Les processus stationnaires ayant beaucoup de proprits, il peut apparaitre intressant de trouver une transformation simple du processus non-stationnaire que le rendrait stationnaire. La mthode la plus courament utilise
est de prendre des dirences :
Exemple 64 Marche alatoire - Soit (Y t ) une marche alatoire,
Y t = Y t1 + " t; pour tout t;
alors Zt = Y t Y t1 est stationnaire (et Z t = "t ).
Exemple 65 Tendance linaire - Une tendance linaire Yt vrie
Y t = t + "t ; pour tout t, o 2 R,
alors Zt = Y t Y t1 = + "t "t1 : il sagit dun processus M A (1) (non inversible, mais stationnaire comme tout
processus M A).
Exemple 66 March alatoire avec drift - Soit Y t , marche alatoire avec drift,
Y t = t + Xt = [ + " 1 ] + [ + "2 ] + ::: + [ + "t ] ;
alors Zt = Y t Y t1 = + Xt Xt 1 = + "t est stationnaire.
Cest cette importance de la direnciation (dont lintgration est lopration duale) qui a permis de passer des
modles ARM A aux modles ARIM A.

6.8

Les processus ARIMA (p; d; q)

Lhypothse de stationnarit, prsente - sous certaines conditions - dans les modles ARM A, nest que rarement
vrie pour des sries conomiques. En revanche, on peut considrer les dirences premires Xt = Xt Xt 1 , ou
des dirences des ordres plus levs

Xt = Xt Xt1 = (1 L) Xt
d
d Xt = (1 L) Xt
102

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dnition 42 Un processus (Xt ) est un processus ARIM A (p; d; q) - autorgressif moyenne mobile intgr - sil vrie
une quation du type
d
(L) (1 L) Xt = (L) "t pour tout t 0
o

(L) = I 1 L 2 L2 + ::: p Lp o p 6= 0
(L) = I + 1L + 2 L2 + ::: + q Lq o q 6= 0

sont des polynmes dont les racines sont de module suprieur 1, et o les conditions initiales
Z 1 = fX1 ; :::; X p ; "1 ; :::; "q g
sont non-corrles avec " 0 ; :::; " t; ::: et o le processus ("t ) est un bruit blanc de variance 2 :
Remarque 39 Si les processus ARM A peuvent tre dnis sur Z, il nen est pas de mme pour les processus ARIM A
qui doivent commencer une certaine date (t = 0 par convention), avec des valeurs initiales (q valeurs pour les "t , et
p + d pour Xt ). En eet, si lon considre un processus Xt , ARIM A(0; 1; 0) (= marche alatoire), soit (1 L) Xt = " t.
On peut crire
t
t
X
X
Xt = X0 +
" k mais pas Xt =
"k
k= 1

k=1

car cette somme ne converge pas dans L : Cette importance de linitialisation peut se comprendre sur les graphique
ci-dessous : considrer un processus AR (1) simul (ou un processus ARM A de faon plus gnrale), partir de la
date t = 0 : on peut noter qu relativement court terme les processus (Xt) et (Yt ) simuls respectivement partir de
x et y sont indentiques : L (Xt ) = L (Y t ), les deux processus ont la mme loi, quelle que soit la valeur initiale (i.e.
une loi normale dans le cas dun bruit blanc gaussien).
6

-2

-2

-4

-4

3
2

20

20

15

15

10

10

1
0
-1

500

1000

1500

2000

-2

500

AR1_INIT_0

1000

1500

-3
2000

10

15

AR1_INIT_1

20

25

30

35

40

45

50

-5
500

AR1_INIT_1

1000

1500

2000

-5
5

10

AR1_INIT_30

15

20

25

30

35

40

45

AR1_INIT_30

En revanche, pour un processus ARIM A (1; 1; 0) - cest dire un processus AR (1) intgr, la valeur initiale est trs
importante : pour deux valeurs initiales direntes, les deux processus nont pas la mme loi L (Xt ) 6= L (Y t ),
6

20

15

80

100

60

80

40

60

10

120

-4

-5
1000
AR1_INIT_1

1500

2000

40

20
-20

500

1000
AR1_INIT_30

1500

2000

-40

-40

-20
500

80

20

40

-2

120

-40
500

1000

1500

ARIMA11_INIT_30

-60
2000

500

1000
ARIMA11_INIT_0

1500

-80
2000

500

1000

ARIMA11_INIT_0

1500

2000

ARIMA11_INIT_30

Les deux processus intgrs, droite, ont sensiblement des lois direntes la date t:
Remarque 40 Soit Y t un processus intgr dordre d, au sens o il existe (Xt ) stationnaire tel que Y t = (1 L)d Xt
satisfaisant (L) Y t = + (L) "t Alors, (Y t ) nest pas un processus ARM A car il ne commence pas en 1. En
fait, (Y t ) est asymptotiquement quivalent un processus stationnaire ARM A:

Proprit 41 Soit (Xt) un processus ARIM A (p; d; q) alors le processus d Xt converge vers un processus ARM A (p; q)
stationnaire.

103

Sries temporelles : thorie et applications

6.8.1

Arthur CHARPENTIER

Processus ARIM A et formes AR ou M A

Proprit 42 Soit (Xt ) un processus ARIM A (p; d; q) de valeurs initiales Z 1 ; alors


(i) (Xt) peut scrire sous la forme suivante, fonction du pass du bruit,
Xt =

t
X

j=1

hj "tj + h (t) Z 1 ;

o les h j sont les coecients de la division selon les puissances croissantes de par ; et h (t) est un vecteur (ligne)
de fonctions de t
(ii) (Xt ) peut scrire sous la forme suivante, fonction du pass de Xt
Xt =

t
X

j= 1

j Xtj + h (t) Z1 + "t ;

o les j sont les coecients (pour j 1) de la division selon les puissances croissantes de par ; et h (t) est un
vecteur (ligne) de fonctions de t quand tend vers 0 quand t ! 1.
Preuve. (ii) La division selon les puissances croissantes de I par scrit, lordre t,
I =Qt (Z) (Z) + Z t+1 Rt (Z) o deg (Qt ) = t et deg (Rt ) q 1:
d

Posons (L) = (1 L) (L). Alors lquation (L) Xt = (L) "t peut scrire, en multipliant par Q t (Z),

Qt (Z) (L) Xt = Q t (Z) (L) "t = ILt+1 Rt (L) "t = "t Rt (L) " 1 :
En posant t (L) = Qt (Z) (L) (de degr p + d + t ni ) on peut crire t (L) Xt = "t Rt (L) " 1 ; soit
p+d+t

X
j=0

j Xtj = " t

q1
X
j=0

rj " 1 j ;

cest dire, en coupant la premire somme,


t
X

j=0

6.9

t+p+d

j Xt j = "t

j=t+1

q1

j Xt j
{z

X
j=0

rj "1 j :

h0 (t)Z1

Les modles SARIM A

Les modles SARIM A peuvent vus comme une gnralisation des modles ARIM A, contenant une partie saisonnire.
Dnition 43 De faon gnrale, soient s1 ; :::; sn n entiers, alors un processus (Xt ) est un processus SARIM A (p; d; q)
- autorgressif moyenne mobile intgr saisonnier - sil vrie une quation du type
(L) (1 Ls1 ) ::: (1 Lsn ) Xt = (L) "t pour tout t 0
o (L) = I 1 L 2 L2 + ::: p Lp o p 6= 0 et (L) = I + 1L + 2 L2 + ::: + q Lq o q 6= 0.sont des polynmes
dont les racines sont de module suprieur 1, et o les conditions initiales
Z 1 = fX1 ; :::; X p ; "1 ; :::; "q g
sont non-corrles avec " 0 ; :::; " t; ::: et o le processus ("t ) est un bruit blanc de variance 2 :
Cette forme inclue les modles ARIM A puisquil sut de prendre n = d et s1 = ::: = sn = 1. Toutefois, les deux
formes les plus utilises sont les suivantes,
(L) (1 Ls ) Xt = (L) "t pour tout t 0
d
(L) (1 Ls ) (1 L) Xt = (L) "t pour tout t 0
o un seul facteur saisonnier s intervient, soit appliqu un processus ARM A dans le premier cas, soit appliqu un
processus ARIM A dans le second cas.
104

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 67 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par

Xt = (1 L) 1 LS "t = "t "t1 "tS + "tS 1 :


Les autocorrlations sont donnes par

(1) =

1 + 2

=
;
1 + 2
(1 + 2 ) 1 + 2

;
(1 + 2 ) 1 + 2

1 + 2

(S) =
;
2 =
2
(1 + ) 1 +
1 + 2
(S 1) =

(S + 1) =

(1 +

;
1 + 2

2)

et (h) = 0 ailleurs. On peut noter que (S 1) = (S + 1) = (1) (S) : Le graphique suivant montre
lautocorrlogramme (empirique) dun tel processus simul
6
4
2
0
-2
-4
-6
100

200

300

400

500

600

700

800

A1

Pour les autocorrlations partielles, jusquen S 2 (inclus), la fonction dautocorrlation partielle est celle dun M A (1)
de paramtre , puis la fonction est signicative en S 1; S et S + 1.
Exemple 68 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par

1 LS Xt = (1 L) 1 LS "t ou Xt Xt 1 = " t "t 1 "tS + "t S1 :


Les autocorrlations sont donnes par

1 + 2

=
(1) =
;
1 + 2
(1 + 2 ) 1 + 2

h
i
2
( ) = 1 2
h
(S 1) =

i ;
(1 + 2 ) 1 + ( ) 2 = 1 2

1 + 2
(S) =
S1 ;

avec (h) = 0 pour 2 h S 2, puis (S + 1) = (S 1) et (h) = (h S) pour h S + 2. En particulier

105

Sries temporelles : thorie et applications

Arthur CHARPENTIER

(kS) = k1 (S) : Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul
6
4
2
0
-2
-4
-6
100

200

300

400

500

600

700

800

A2

Exemple 69 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par

(1 L) 1 LS Xt = "t ou Xt Xt1 Xt S + Xt S1 = "t:

Les autocorrlations partielles sont non nul les en 1, S et S + 1. De plus la fonction dautocorrlation vrie lquation
de rcurence
(h) (h 1) (h S) + (h S 1) = 0;

qui a pour polynme caractristique (z ) z S , qui a pour racines et les racines S-imes de . Le graphique
suivant montre lautocorrlogramme (empirique) dun tel processus simul
6
4
2
0
-2
-4
-6
-8

100

200

300

400

500

600

700

800

A3

Exemple 70 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par

Xt = 1 L LS "t = " t "t 1 "tS :

On se retrouve dans un cadre assez proche de celui dvelopp dans lexemple (67), et lon obtient la fonction dautocorrlation
suivante

(1) =
:
2 , (S 1) =
2 et (S) =
2
2
1+ +
1+ +
1 + 2 + 2

106

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul


6

4
2

-2
-4
100

200

300

400

500

600

700

800

A4

Exemple 71 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par

Xt = 1 L LS LS+1 "t = " t "t 1 "tS :

On se retrouve dans un cadre assez proche de celui dvelopp dans lexemple prcdant, et lon obtient la fonction
dautocorrlation suivante
+

(1) =
, (S 1) =
;
2
2
2
2
1+ + +
1 + + 2 + 2
(S) =

et (S + 1) =
:
2
2
2
2
1+ + +
1 + + 2 + 2

Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul


6

4
2

0
-2
-4
100

200

300

400

500

600

700

800

A5

6.10

Thorme de Wold

Thorme 7 Tout processus (Xt ), centr, et stationnaire au second ordre, peut tre reprsent sous une forme proche
de la forme M A
1
X
Xt =
j "tj + t ;
j= 0

(1)
(2)
t 6= s;
(3)
(4)
(5)
(6)

("t ) est linnovation, au sens o "t = Xt E L (Xt jXt 1 ; Xt2; :::) ;


E L ("t jXt1 ; Xt2 ; :::) = 0, E ("t Xtj ) = 0, E ("t ) = 0, E "2t = 2 (indpendant de t) et E ("t" s) = 0 pour
toutes
racines de (L) sont lextrieur du cercle unit : le polynome est inversible,
P1 les
2

<
1 et 0 = 1;
j=0 j
les coecients j et le processus ("t ) sont uniques,
( t ) vrie t = E L ( t jXt1 ; Xt2 ; :::) :
107

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La proprit (1) signie que ("t) est lestimation de Xt comme combinaison linaire des valeurs passes, et (2)
est simplement lcriture des conditions dorthogonalit de la pro jection. La proprit (4) est une consquence de
la stationnarit du processus Ce thorme se dmontre avec les direntes proprits des espaces de Hilbert. Ce
thorme dit juste que (Xt ) peut tre crit comme une somme des erreurs de prvision.
Remarque 41 Ce thorme ne dit pas que les "t suivent une loi normale, ou que les "t sont i.i.d. (ils ont la mme
variance et sont non-corrls).
Remarque 42 La proprit (2) dit que E L (" tjXt1 ; Xt2 ; :::) = 0, ce qui ne signie pas que E ("t jXt 1 ; Xt 2 ; :::) = 0.
Lcriture E L (Y jXt 1 ; Xt 2 ; :::) signie que lon recherche la meilleure approximation de Y comme combinaison
linaire du pass de Xt ; 1 Xt1 + 2 Xt 2 + ::: + h Xth + :::. Lesprance conditionnelle E (Y jXt1 ; Xt 2 ; :::) est
elle la meilleure approximation de Y comme fonction du pass de Xt , g (Xt1 ; Xt 2 ; :::; Xt h ; ::), o g nest pas
ncessairement linaire.
Remarque 43 Cette reprsentation nest unique que parce que lon a les direntes conditions, en particulier (1) et
(3). Par exemple, un processus de la forme Xt = t + 2 t1 o ( t ) est i.i.d. et de variance 1, est stationnaire. Mais
sous cette forme, le polynme M A nest pas inversible. Pour trouver la reprsentation de Wold de ce processus, on va
chercher et "t tels que Xt = "t + " t1 . On peut alors montrer que V (" t) = 2= et que est ncessairement soit
gal 2, soit gal 1=2: Le cas = 2 et V ("t) = 1 correspond lcriture initiale. Mais = 1=2 et V ("t ) = 4 marche
galement, et le polynme M A est alors inversible (comme nous lavons vu prcdement, il est toujours possible de
rcrire un processus M A ou AR de faon inversible, condition de changer la variance du bruit). Cette reprsentation
est alors la rpresentation de Wold.
Remarque 44 Ce thorme peut scrire de faon plus simple si lon nest pas intress par lunicit de lcriture :
tout processus (Xt ) stationnaire peut se mettre sous forme M A (1),
Xt = +

1
X

j "tj :

j=0

6.11

Thorie spectrale et processus ARIMA

Comme le rappelle Bourbonnais (1998), lanalyse des sries temporelles dans le dommaine des frquences (ou analyse
spectrale) est souvent plus riche en terme dinterprtation, mais ncessite un recours des techniques mathmatiques
plus complexes. Le principe de base de lanalyse de Fourier est que toute fonction analytique dnie sur un intervalle
(ni ) de R peut scrire comme somme pondre de fonctions sinus et cosinus.
6.11.1

Thorie spectrale et notion de ltre

Thorie spectrale Lanalyse spectrale, ou analyse harmonique, est une gnralisation au cas alatoire de
lanalyse de Fourier. Cette analyse sappuie sur deux rsultats de base : le thorme de Loeve et le thorme de
Khintchine. Le premier prsente la dcomposition harmonique de (Xt ) sous la forme
Xt =

+1

exp (i2t) dUZ () ;

dans laquelle les dUZ () sont des variables alatoires (complexes ), alors que le second est quivalent au prcdant,
mais porte sur la fonction dautocovariance de (Xt),
Z +1

(h) =
exp (i2h) E jdUZ ()j2 :
1

Thorme 8 (de Khintchine) La densit spectrale de puissance dun processus alatoire stationnaire est gale la
transforme de Fourier de sa fonction dautocorrlation
On a alors lcriture suivante
f X (!) =

Z
+1
1 X
(h) e i!h ou (h) =
ei!h fX (!) d!, o (h) = cov (Xt ; Xth ) ;
2
0
h= 1

avec f X (!) densit spectrale du processus (Xt).


108

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Filtre et processus strochastiques Etant donn un processus (Xt), un ltre est une transformation
qui associe

1
2
au processus
(X
)
un
autre
processus
Y
=
F
(X
).
Par
exemple,
on
dira
quun
ltre
est
linaire
si
F
X
t
t
t + Xt =
1
t 2
F Xt + F Xt .
De faon gnrale, on pourra considrer les ltres linaires de la forme suivante
X
F (Xt) =
(i) Xt+i ;
i2Z

o les (i) sont les coecients de pondration, cest dire des ltres moyennes mobiles. Considrons ainsi une
fonction dnie sur Z et valeurs dans R (ou C), appartenant lespace des fonctions de carr intgrable sur R, alors
admet une transforme de Fourier, note A (!) appele fonction de rponse en frquence du ltre :
A (!) =

+1

(t) e i!tdt ou (t) =

1
2

+1

A (!) ei!t d!:

On appelera gain du ltre le carr de la norme de la fonction de rponse, T (!) = jA (!)j2 .


6.11.2

Le spectre dun processus ARM A

Daprs le thorme de Wold, un processus stationnaire est une combinaison linaire innie des valeurs passes dun
bruit blanc, cest dire quil peut scrire comme un processus M A (1) :
Xt = (L) "t =

+1
X

k "t k o 0 = 1:

k= 0

Cest dire que (Xt) est la rponse un ltre dun processus (" t), bruit blanc (la stabilit tant assure par la
convergence de la somme des carrs de i ). Les i sont alors la fonction de rponse impulsionnelle du ltre. La
fonction de gain du ltre scrit
+1
2
X

i!k
T (!) = jA (!)j =
ie
;

k= 0

avec A (!) correspondant la fonction de rponse en frquence au ltre. On a alors la relation suivante entre les
spectres des deux processus,
f X (!) = T (!) f" (!) :
Or, le spectre du bruit blanc vrie f " (!) = 2" =2, et donc
f X (!) =

2"

2
+1
X

2
2

i!k

k e
= " e i!k :

2
k=0

De faon gnrale et analogue, on a le rsultat suivant pour les processus ARM A;


Proprit 43 Soit (Xt ) un processus ARM A (p; q), vriant (L) Xt = (L) "t, sous forme canonique minimal,
avec les racines de et de lextrieur du disque unit alors

2
(L)
2" e i!k
Xt =
"t et f X (!) =
:
(L)
2 j (ei!k )j2
Cette criture peut scrire sous la forme expense suivante

2
2" 1 + 1 e i! + 2 e2i! + ::: + q e qi!
f X (!) =

:
2 1 1 e i! 2e 2i! ::: p e qi! 2

Compte tenu du lien entre la densit spectrale et la fonction dautocorrlation, il est possible dobtenir la densit
spectrale dans plusieurs cas simples.

109

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 72 Considrons le processus M A (1) suivant : Xt = "t +"t1 o ("t ) suit un bruit blanc de variance 2 .
Pour mmoire, les autocovariances sont donnes par (0) = 1 + 2 2 , (1) = 2 et (h) = 0 pour h 2. Ainsi,
"
#

+1
X
2 1 + 2 cos (!) + 2
1
f (!) =
(0) + 2
(k) cos (k!) =
:

k=1

Exemple 73 Considrons le processus AR (1) suivant : Xt = Xt1 + "t o ("t ) suit un bruit blanc de variance 2 .
Pour mmoire, les autocovariances sont donnes par (0) = 2 = 1 2 , et (h) = (h 1) pour h 1. Ainsi,
(h) = h (0) pour h 1. Cette criture permet dobtenir la relation suivante
"
#
"
#
+1
+1
X
X
i!k

1
(0)
k
i!k
f (!) =
(0) + 2
(k) cos (k!) =
1+
e
+e

k=1
k=1

(0)
e i!k
e i!k
2
=
1+
+
=
:
i!k
i!k

1 e
1 e
1 2 cos (!) + 2
ce qui donne une fonction dcroissante pour > 0 et croissante pour < 0:

Exemple 74 Considrons le processus AR (2) suivant : Xt = Xt 1 + Xt 2 + "t o ("t ) suit un bruit blanc de
variance 2 . Le polynme AR scrit (L) = 1 L L2 dont il faut sassurer que les racines sont lextrieur du
disque unit. Le spectre du processus (Xt ) scrit alors
fX (!) =

2
1
:
2
2
2 1 + + 2 (1 ) cos ! 2 cos 2!

Considrons le cas particulier o Xt = 0:9Xt 1 0:4Xt2 + " t avec 2 = 1,


f X (!) =
dont le tableau de variation est
!=2
f0
f
ce qui donne la reprsentation suivante

1
1
;
2 1:97 2:52 cos ! + 0:8 cos 2!
0
0
8

0:212
0
11:25

+
%

&

0:38

2.0

1.5

1.0

0.5

0.0

AR11

Les graphiques suivants donnent les volutions de densits spctrales pour dirents processus ARM A. Les
graphiques ci-dessous correspondent des processus AR (1), avec = 0:8 gauche, puis = 0:2 et 0:5 droite,
avec des courbes dcroissantes quand 0 et croissantes quand 0,
1.4

10

1.2

8
1.0

0.8
0.6

0.4

0.2
0.0

AR02
AR03

AR01

110

AR04
AR05

Sries temporelles : thorie et applications

6.11.3

Arthur CHARPENTIER

Estimation de la densit spectrale dun processus

Supposons que nous ayons T observations dune srie temporelle, avec T impair, soit T = 2m + 1. On dni les
frquences (dites parfois de Fourier ) ! j = 2j=T pour j = 1; :::; m. Considrons alors le modle de rgression
Yt = 0 +

m
X

j cos (! j t) +

j=1

m
X

j sin (! j t) ;

j=1

qui peut tre crit sous forme de modle linaire Y = X + ", avec
0

1
0
Y1
B
C
B
Y = @ ... A , X = @
YT

1
..
.
1

cos (! 1 )
..
.
cos (! 1 T )

1
B
B
cos (! m )
sin (! m )
B
C
B
..
..
,

=
A
B
.
.
B
B
cos (! m T ) sin (! m T )
@

sin (! 1 )
..
.
sin (! 1 T )

0
1
1
..
.
m
m

C
0
C
C
C
B
C et " = @
C
C
A

1
"1
.. C :
. A
"T

1
Lestimation de par la mthode des moindres carrs donne b
= (X 0X) X 0 Y . Compte tenu des proprits suivantes
T
X

cos (! j t) =

t=1

et

T
X

T
X

sin (! j t) = 0,

t=1

cos (! j t) sin (!k t) =

t=1

B
B
B
B
b
=B
B
B
@

b0

1
b
b
1
..
.
m
b
b
m

cos 2 (! j t) =

t=1

T
X

0
C
C
C B
C B
C=B
C @
C
A

T
0
..
.
0

0
T =2
..
.
0

cos (! j t) cos (! k t) =

T
X
t=1

0
0
..
.
T =2

1 1 0
C
C
C
A

T
X

sin 2 (! j t) =

t=1

t= 1

on peut montrer aisment que


0

T
X

B
B
B
@

(29)

sin (! j t) sin (! k t) = 0 pour j 6= k;

Yt
cos (!1 t) Yt
..
.
P
sin (! m t) Y t
P

T
pour tout j;
2

C B
C B
C=B
A @

P
Y =
P1=T : Y t
2=T : cos (! 1 t) Y t
..
P .
2=T : sin (! m t) Y t

(30)

C
C
C;
A

et la variance empirique des observations (Y t) est donne ( un facteur 1=T prs ) par
2
!2 T
!23
T
m
T
X
X
X

2 X
2
4
Yt Y =
cos (! j t) Y t
+
sin (! j t) Yt 5 :
T
t=1
j=1
t=1
t=1
Tout ceci permet de dnir le priodogramme I (!) de la faon suivante
2
!2 T
!23
T
X
1 4 X
I (!) =
cos (!t) Y t
+
sin (!t) Y t 5 :
T
t=1
t=1

Dans cette expression, un facteur 1=2 a t introduit de telle sorte que la variance empirique, donne par
(0) =
b

1 X
Yt Y ;
T
t= 1

soit gale la somme des aires des m rectangles, de hauteur I (!1 ) ; :::; I (! m ), et de base 2=T . La somme des aires

111

Sries temporelles : thorie et applications

Arthur CHARPENTIER

de ces rectangles approxime laire sous la courbe I (!) pour 0 ! ,


I( )

I(4 )

2/

En utilisant (29) et (30) on peut crire


T 1
1
2 X
I (! j ) = b
(0) +
b (k) cos (!j k) :

k=1

Cette fonction I (!) est alors la version discrte et empirique de la densit spectrale f (!).
Proprit 44 Si le processus est stationnaire, et si la densit spectrale existe, alors I (!) est un estimateur sans biais
de f (!) :
que (Y t ) soit un bruit blanc gaussien, cest dire Y1 ; :::; Y T sont i:i:d: et distribus suivant une loi
Supposons

N 0; 2 . Pour toute frquence de Fourier, ! = 2j =T ,


T
T
i
X
X
1 hb
2
2
b
b
b
I (!) =
A (!) + B (!) o A (!) =
Y t cos (!t) et B (!) =
Yt sin (!t) :
T
t= 1
t=1

b (!) et B
b (!) sont centrs, et dont les variance sont donnes par
Il est facile de montrer que A
V

T
T

X
X
2
2
b (!) = 2
b (!) = 2
A
cos2 (!t) = T
et V B
sin2 (!t) = T ;
2
2
t=1

t=1

et dont la covariance est nulle

b (!) ; B
b (!) = E
cov A

T
X

Y s Yt cos (!s) sin (!t)

s;t=1

= 2

T
X
t=1

cos (!t) sin (!t)

= 0:

p
p
b (!) = 2T 2 et B
b (!) = 2T 2 sont indpendant, et asymptotiquement distribus suivant une la mme loi,
De plus, A
h
i
b (!)2 + B
b (!) 2 =T 2 est asyptotiquement distribu suivant une loi du chinormale, centre et rduite. Et donc, 2 A

deux, 2 degrs de libert. Aussi, I (!) s 2 = 2 (2) =2, ce qui montre bien que I (!) est un estimateur sans biais
de f (!) = 2 =, mais il nest pas consistant puisque V (I (!)) = 4 = 2 9 0 quand T ! 1:
Proprit 45 Soit (Y t ) un processus gaussien , de spectre f (!) Soit I (:) le priodogramme obtenu partir de
lchantillon Y 1 ; :::; YT , posons ! j les frquences de Fourier, au sens o ! j = 2j=T pour j < T =2. Dans ce cas,
quand T ! 1 ,on a les rsultats suivants;
(i) I (! j ) s f (! j ) :2 (2) =2
(ii) I (! j ) et I (! k ) sont indpendant pour j 6= k.
Remarque 45 La mthode de calcul des I (!1 ) ; :::; I (!m ) prsent dans cette partie ncessite de lordre de T 2 oprations. La Fast Fourier Transform permet daugmenter les temps de calcul puisque seulement T log 2 T oprations
sont ncessaires (le gain en temps est alors en T = log 2 T : pour 100 observations, les calculs sont alors 15 fois plus
rapides).

112

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 46 Considrons la srie (Xt ) dnie par Xt = 5 cos (t=36) + 7 sin (t=12) + "t o "t s N (0; 1), reprsente
ci-dessous gauche. Sa densit spectrale est reprsente ci-dessous

On note deux maximums locaux, aux priodes 110 et 35 (correspondants aux paramtres 1=36 et 1=12).

113

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Pour prvoir lavenir, il faut connatre le pass, car les vnements de ce monde
ont en tout temps des liens aux temps qui les ont prcds.
Machiavel, Le Prince.

Estimation des modles ARIM A : Box-Jenkins

Louvrage de Box et Jenkins Time series analysis, forecasting and control , publi en 1970 a propos une dmarche
de prvision pour les sries univaries, fonde sur lutilisation de processus ARIM A:
Les tapes pour lestimation des coecients dun processus ARIM A sont les suivantes
(1) identication
(i) choix de d : combien de fois faut-il direncier pour obtenir une srie stationnaire (autocorrlogrammes,
tests statistiques...)
(ii) choix de p et q : ordres respectifs des composantes AR et M A
(2) estimation des paramtres
estimation des i et des j : paramtres respectifs des composantes AR et M A
(3) vrication a posteriori
(i) signicativit des paramtres
(ii) validation de lhypothse de bruit blanc des rsidus
Remarque 47 Il convient de retenir, comme en conomtrie, le modle le plus parcimonieux, utilisant le moins de
paramtres, et ayant le meil leur comportement en prvision.

7.1
7.1.1

Estimation du paramtre dintgration d


Appro che empirique par lautocorrlogramme

Comme nous lavons vu dans la partie (2:4:3), les moments empiriques convergent, avec en plus normalit asymptotique
(sous certaines conditions ).
En pratique, si b
(h) est proche de 1 (pour un grand nombre de retards ), on a une racine unit, et le processus nest
pas stationnaire. On peut gallement penser direncier si les premiers (h) sont proches les uns des autres, mme
si (1) semble assez dirent de 1.
Il est noter que pour des sries conomiques, il est assez rare davoir d 3.
Exemple 75 Les graphiques ci-dessous reprsentent les sries (en haut) et les autocorrlogrammes (en bas) de Xt,
de Xt et de 2 Xt
14000

50

12000

40

10000

30

8000

20

6000
4000

10
-2

2000

0
-2000
100

200

300

400

500
X

600

700

-10

100

200

300

400
DX

114

500

600

700

-4
100

200

300

400
D2X

500

600

700

Sries temporelles : thorie et applications

Arthur CHARPENTIER

On peut dailleurs noter que si lon continue direncier, on a toujours des sries stationnaires
6
10

4
5

2
0

-2
-5

-4
-6
100

200

300

400

500

600

-10

700

D3X

7.1.2

100

200

300

400

500

600

700

D4X

Tests de racine unit

La prsentation sera ici inspire de celle de Hamilton Time Series Analysis (1994).
Le test de Dickey & Fuller simple Ce test permet de tester lhypothse H0 : le processus suit une marche
alatoire contre lhypothse alternative Ha : le processus suit un modle AR (1). Ces tests peuvent tre regroups en
4 cas :
(1) Y t = Y t1 + "t : on teste H0 : = 1 (marche alatoire sans drive)
(2) Y t = + Y t1 + "t : on teste H0 : = 0 et = 1 (marche alatoire sans drive)
(3) Y t = + Y t1 + "t : on teste H0 : 6= 0 et = 1 (marche alatoire avec drive)
(4) Y t = + t + Y t1 + "t : on teste H 0: = 0; = 0 et = 1 (marche alatoire sans drive )
Le test de Dickey & Fuller, dans le cas (1), se construit comme un test de Sutdent de lhypothse = 1, ou plutt
1 = 0. Etant donn lestimateur naturel de , on peut noter que
P
"tY t1
1 = P
b
Y t1

Le test de Dickey & Fuller augment Ce test permet de tester lhypothse H 0 : est intgr dordre au moins 1
Ha : le processus suit un modle AR (p). Ces tests peuvent tre regroups en 4 cas :
(1) (L) Yt = "t : on teste H0 : (1) = 0
(2) (L) Yt = + "t : on teste H0 : = 0 et (1) = 0
(3) (L) Yt = + "t : on teste H0 : 6= 0 et (1) = 0
(4) (L) Yt = + t + "t : on teste H0 : = 0; = 0 et (1) = 0
Ces 4 cas peuvent tre rcrits en introduisant les notations suivantes,
" p 1
#

X
0 = (1) 1

i
(L) = (1) + (1 L) (L) = (1)
iL (1 L) o
i = i1 i = i+1 + ::: + p
i= 0

pour i = 1; :::; p. En posant


= 1 (1), on peut rcrire les 4 cas en
P
(1) Y t = Y t1 +
iP
yt i + "t : on teste H0 : = 1
(2) Y t = + Y t1 + P i yti + "t : on teste H0 : = 0 et = 1
(3) Y t = + Y t1 +
i y
P ti + "t : on teste H0 : 6= 0 et = 1
(4) Y t = + t + Y t1 +
i yt i + "t : on teste H0 : = 0; = 0 et = 1

Les statistiques de tests


P et leurs lois Pour simplier, on crira
(1) Y t = Y t1 +
i yt
Pi + " t, avec = 1 appel Modle [1]
(2 3) Y t = + Y t1 + Piyti + "t appel Modle [2]
(4) Y t = + t + Y t1 +
i yt i + " t appel Modle [3]
Les tables ci-aprs, ont t tabules par Dickey & Fuller (1979), et sont analogues aux tables du t de Student.
Dans le cas simple, le paramtre (ou ) est estim par la mthode des moindres carrs ordinaires. Lestimation des
coecients et des cart-types du modle fournit un t , analogue la statistique de Student dans les modles linaires
(rapport du coecient sur son cart-type ). Si tb est suprieur au t tabul, on accepte H0 , hypothse dexistence dune
racine unit, et le processus nest alors pas stationnaire.
b , o b
Il est aussi possible deectuer ce test en utilisant n
n est lestimateur de obtenu partir de n observations.
n
Si cette valeur (empirique) est suprieure celle tabule (et donne dans la deuxime table), on accepte lhypothse
H0 .

115

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Mise en place pratique des tests On choisit tout dabord un p susement grand pour que (L) Xt suive peu
prs un bruit blanc. On choisit alors parmi les cas proposs suivant que le graphique de la srie prsente, ou pas, une
tendance linaire.

116

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 76 Considrons la srie dcrit prcdement,


4

50

14000
12000

40

10000

30

8000

20

6000
4000

10

2000

-2
0

0
-2000
100

200

300

400

500

600

-10

700

100

200

300

400

500

600

-4

700

100

200

300

400

DX

500

600

700

D2X

Le test (simple) de Dickey & Fuller revient estimer les 3 modles suivants,
8
< Xt Xt1 = Xt1
X Xt1 = + Xt1
: t
Xt Xt1 = + t + Xt1

et dans le cas du test aumgent, avec p = 2


8
< Xt Xt 1 = Xt 1 [2 X t1 + 3 Xt2 ]
Xt Xt 1 = + Xt1 [2 Xt 1 + 3 Xt2 ]
:
Xt Xt 1 = + t + Xt 1 [2 Xt1 + 3 Xt2 ]

Le troisme modle scrit, compte tenu des sorties obtenues ci-dessous,

Xt = 0:048502 + 0:00919 t 0:000083 Xt1 1:01516 Xt1 0:022332 Xt2


(0: 092874)

( 0:000466)

(0: 0000244)

( 0:035561)

(0:035629)

avec n = 794. Les valeurs du test de Dickey & Fuller sont donnes par
ADF Test Statistic

-1.555831

1% Critical Value*
5% Critical Value
10% Critical Value

-3.9744
-3.4177
-3.1405

*MacKinnon critical values for rejection of hypothesis of a unit root.

Augmented Dickey-Fuller Test Equation


LS // Dependent Variable is D(X)
Sample: 4 798
Included observations: 795 after adjusting endpoints
Variable

Coefficient

Std. Error

T-Statistic

Prob.

X(-1)
D(X(-1))
D(X(-2))
C
Trend

-3.80E-05
1.015160
-0.022332
-0.048502
0.000919

2.44E-05
0.035561
0.035629
0.092874
0.000466

-1.555831
28.54703
-0.626804
-0.522231
1.971959

0.1201
0.0000
0.5310
0.6017
0.0490

R-squared
0.994281
Adjusted R-squared 0.994252
S.E. of regression 1.028792
Sum squared resid 836.1470
Log likelihood
-1148.115
Durbin-Watson stat 1.998565

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F- statistic)

17.17545
13.56918
0.063041
0.092464
34333.72
0.000000

En rpettant ce test en changeant la forme du modle (ici sans trend + t, et en changeant lordre p), on conrme
ce rejet de H0 : la srie Xt possde une racine unitaire et nest pas stationnaire : la statistique de test ADF Test

117

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Statistic est toujours suprieure aux valeurs critiques :


ADF Test Statistic

0.083143

1% Critical Value*
5% Critical Value
10% Critical Value

ADF Test Statistic

-2.5683
-1.9398
-1.6158

0.147201

1% Critical Value*
5% Critical Value
10% Critical Value

*MacKinnon critical values for rejection of hypothesis of a unit root.

*MacKinnon critical values for rejection of hypothesis of a unit root.

Augmented Dickey-Fuller Test Equation


LS // Dependent Variable is D(X)
Sample : 3 798
Included observations: 796 after adjusting endpoints

Augmented Dickey-Fuller Test Equation


LS // Dependent Variable is D(X)
Sample: 4 798
Included observations: 795 after adjusting endpoints

-2.5683
-1.9398
-1.6158

Variable

Coefficient

Std. Error

T-Statistic

Prob.

Variable

Coefficient

Std. Error

T-Statistic

Prob.

X(-1)
D(X(-1))

1.19E-06
0.999599

1.44E-05
0.003892

0.083143
256.8238

0.9338
0.0000

X(-1)
D(X(-1))
D(X(-2))

2.12E-06
1.023187
-0.023865

1.44E-05
0.035517
0.035721

0.147201
28.80845
-0.668114

0.8830
0.0000
0.5043

R- squared
0.994239
Adjusted R-squared 0.994231
S.E. of regression 1.030928
Sum squared resid 843.8728
Log likelihood
-1152.719
Durbin-Watson stat 1.952055

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

17.15451
13.57350
0.063428
0.075186
137020.3
0.000000

R-squared
0.994234
Adjusted R-squared 0.994220
S.E. of regression 1.031640
Sum squared resid 842.9113
Log likelihood
-1151.318
Durbin -Watson stat 1.998543

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic )

17.17545
13.56918
0.066067
0.083721
68285.65
0.000000

En faisant le test sur la srie direncie une fois (Xt ),on observe l aussi que lADF Test Statistic est toujours
suprieure aux valeurs critiques : H0 est encore accepte, et donc la srie Xt possde elle aussi une racine unitaire
et nest donc pas stationnaire
ADF Test Statistic -1.301307

1% Critical Value*
5% Critical Value
10% Critical Value

-3.4412
-2.8656
-2.5689

*MacKinnon critical values for rejection of hypothesis of a unit root.


Augmented Dickey-Fuller Test Equation
LS // Dependent Variable is D(DX)
Sample: 5 798
Included observations: 794 after adjusting endpoints
Variable

Coefficient

Std. Error

T-Statistic

Prob.

DX(-1)
D(DX(-1))
D(DX(-2))
C

-0.003514
0.024104
-0.016162
0.094442

0.002700
0.035551
0.035648
0.059015

-1.301307
0.678025
-0.453368
1.600316

0.1935
0.4980
0.6504
0.1099

R-squared
0.002941
Adjusted R- squared -0.000845
S.E. of regression 1.031104
Sum squared resid 839.9090
Log likelihood
-1148.953
Durbin-Watson stat 1.998939

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

0.034441
1.030669
0.066286
0.089848
0.776723
0.507138

Le test de Dickey & Fuller appliqu cette fois-ci 2 Xt donne les rsultats suivants,
ADF Test Statistic

-15.92501

1% Critical Value*
5% Critical Value
10% Critical Value

-3.4412
-2.8656
-2.5689

*MacKinnon critical values for rejection of hypothesis of a unit root.

Augmented Dickey- Fuller Test Equation


LS // Dependent Variable is D(D2X)
Sample : 6 798
Included observations: 793 after adjusting endpoints
Variable

Coefficient

Std. Error

T-Statistic

Prob.

D2X(-1)
D(D2X(-1))
D(D2X(-2))
C

-0.975906
-0.000917
-0.018974
0.033307

0.061281
0.049987
0.035701
0.036722

-15.92501
-0.018335
-0.531468
0.907005

0.0000
0.9854
0.5952
0.3647

R-squared
0.489083
Adjusted R- squared 0.487141
S.E. of regression 1.032633
Sum squared resid 841.3347
Log likelihood
-1148.678
Durbin -Watson stat 2.002323

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F- statistic
Prob(F-statistic)

0.000169
1.441939
0.069255
0.092840
251.7610
0.000000

Cette fois-ci, le test de Dickey & Fuller permet de rejeter H0 : 2 Xt na pas de racine unitaire, et la srie 2 Xt est
donc stationnaire. Ce test valide les rsultats graphiques de lexemple (75) : la srie Xt est intgre dordre 2 : d = 2.

118

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 48 Dans le cas de sries nancires (par exemple), il convient de faire attention lors de la lecture des
rsultats des tests de Dickey & Fuller : les processus mmoire longue, bien que stationnaires, semblent avoir une
racine unit. Avant de direncier an dobtenir une srie stationnaire, il peut tre intressant de tester lhypothse
de mmoire longue du processus.
A retenir 11 Dans les tests de Dickey Fuller augment, trois (ou quatre) alternatives sont proposes : avec ou sans
tendance et constante. Il vaut mieux choisir lalternative permettant de mieux dcrire la srie : si la srie (Xt ) nest
pas centre, et que lon tente un test de Dickey Fuller sans constante, il est possible il est possible H0 soit rejete, non
pas parce quil ny a pas de racine unit, mais parce que le modle test est mal spci (cf exercice 16 de lexamen
2002/2003).
Complments sur les tests de racine unit

Considrons une criture de la forme

(L) Xt = (L) "t ; o ("t ) est un bruit blanc.



Lhypothse tester est (H0 ) : il existe tel que ei = 0, cest dire quune racine est sur le disque unit (racine
unit) le reste des racines tant lextrieur du risque unit : (L) = (1 L) (L) o (1) 6= 0, avec les racines
de lextrieur du disque unit. Alors
Xt = (L)

(L) "t = (L) "t = t ou Xt = Xt1 + t :



Lhypothse alternative (H1 ) scrit alors ei 6= 0 pour tout : na pas de racine unit, et on suppose de
plus que toutes les racines sont lextrieur du disque unit :
1

Xt = (L)

(L) " t = (L) "t = t:

Les tests de Dickey-Fuller permet de tester cette hypothse : le test de rgression scrit alors
Xt = Xt1 + t dont lestimation est Xt = b
Xt1 + b
t :

Il est alors possible de montrer que sous lhypothse (H0 ) : = 1 , la statistique de test scrit
P
i
2
b
1
Xt1
1 Xh
s2
b
t=1 = o b
1 = P 2 t ; s2 =
Xt b
Xt1 et
b b
=P 2 ;
Xt1
T 1
Xt 1
b
b


b cart type (par moindre carrs) de lestimateur de , et sa distribution est donne par
avec b

R1
b
Wt dWt
1 L
b
t= 1 = ! hR 0
i1=2 6= N (0; 1) o (W t ) est un brownien standard sur [0; 1] :
1
2
b
b

W
dt
t
0

Cette distribution nest pas gaussienne, et des tabulations (obtenues par des mthodes de type Monte-Carlo) sont
ncessaire pour tabuler la distribution limite20 .
Tests de Phillips et Perron Ces tests non paramtriques ont t introduits en 1988. La distribution thorique
la base des tests de Dickey & Fuller repose sur lhypothse dhtroscdasticit du bruit. La gnralisation des tests
DF aux tests ADF se fait en considrant
X
Y t = Dt + Y t1 + " t ! Y t = Dt + Y t1 +
iy ti + " t;
o (Dt ) est une tendance dterministe. La gnralisation des tests DF propose par Phillips et Perron consiste ne
plus supposer que (" t) est un bruit blanc, et autoriser que ce processus soit autocorrle. La gnralisation de ces
tests au cas htroscdastique a t propose par Phillips et Perron, les valeurs critiques correspondant celles des
tests ADF . Ces tests reposent sur des rsultats de la thorie de la convergence faible fonctionelle (thorme central
limite fonctionel (FCLT) par exemple). Lutilisation du FCLT pour des tests de racines unit a t propos ds 1958
par White.
2 0 Le

lien entre les processus intgrs et le mouvement brownien est donn page 25:

119

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Si (Xt) est un processus stationnaire alors les statistiques calcules sur ce processus vriront le FCLT. Considrons
par exemple le cas AR (1), Xt = Xt 1 +"t pour t = 1; :::; T , et cherchons tester = 1 (hypothse H0 ). En supposons
H0 vrie, et considrons la somme partielle du processus dinnovation,
St = X t X 0 =

t
X

"i .

i=1

On prendra comme valeur initiale de (St ), S0 = 0, mais pour le choix de X0 trois possibilits sont gnralement
envisages : (i) X0 = c (constante), (ii) X0 admet une distribution spcie a priori, (iii) X0 = XT . Cette dernire
condition, dite hypothse de cicularit,
a t propos par Hotelling. Phillips avait suggr la seconde possibilit.
p
En notant XT (r) = S[T r] = T , il possible de montrer (cd partie prcdante) que XT (r) converge faiblement (not
=)) vers un mouvement brownien (cf. Billigsley (1968)).
n
o
+
Proprit 46 Si ("t ) vrie lhypothse () et si sup j" tj
< 1 pour > 0 et > 0 alors, quand T ! 1, sous
lhypothse H0 : = 1 dans le modle Xt = Xt1 + "t on a les rsultats suivants
(i)

Z 1
T
1 X 2
2
X
=)

W s2 ds
t 1
T2
0
t=1

T
1 X
2
2"
2
(ii)
Xt1 (Xt Xt 1 ) =)
W1 2
T t=1
2

(iii) T (b
1) =)

1 W12 2" = 2
R1
2
W s2 ds
0

(iv) b
!1

v
u T
X
1u
b
W12 2" = 2
2
t
(v) tb =
(Xt Xt 1 ) =)
qR
b
2 "
1
t=1
Ws2 ds
0

Preuve. Phillips (1987), Testing for a unit root in a time series regression.
Le point (iv) montre que les moindres carrs ordinaires conservent la proprit de convergence quand il y a une
racine unit.
Exemple 77 En reprenant la srie de lexemple (75), on retrouve que la srie (Xt ) admet une racine unit, que lon
teste un modle simple, sans constante ni tendance ( gauche), ou avec tendance et constante ( droite),
Null Hypothesis: X has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 11 (Newey-West using Bartlett kernel)

Null Hypothesis: X has a unit root


Exogenous: None
Bandwidth: 11 (Newey-West using Bartlett kernel)
Phillips-Perron test statistic
Test critical values:
1% level
5% level
10% level

Adj. t -Stat

Prob.*

4.053815
-2.576634
-1.942431
-1.615638

1.0000

Residual variance (no correction)


HAC corrected variance (Bartlett kernel)

31.50308
354.1817

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

Coefficient
0.008077
-0.347519
-0.347519
5.626917
6269.114
-625.6523

Prob.*
0.1725

Residual variance (no correction)


HAC corrected variance (Bartlett kernel)

16.21938
170.1988

Phillips-Perron Test Equation


Dependent Variable: D(X)
Method: Least Squares
Date: 07/11/03 Time: 14:02
Sample(adjusted): 2 200
Included observations: 199 after adjusting endpoints

Phillips-Perron Test Equation


Dependent Variable: D(X)
Method: Least Squares
Date: 07/11/03 Time: 14:01
Sample(adjusted): 2 200
Included observations: 199 after adjusting endpoints
X(-1)

Adj. t-Stat
-2.876236
-4.004836
-3.432566
-3.140059

*MacKinnon (1996) one-sided p -values.

*MacKinnon (1996) one-sided p-values.

Variable

Phillips-Perron test statistic


Test critical values:
1% level
5% level
10% level

Std. Error

t-Statistic

Prob.

Variable

Coefficient

Std. Error

t-Statistic

Prob.

0.000570

14.17192

0.0000

X(-1)
C
@TREND(1)

-0.019037
-2.270852
0.184788

0.002875
0.990735
0.023504

-6.622402
-2.292088
7.861856

0.0000
0.0230
0.0000

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat

6.330875
4.847334
6.298013
6.314562
0.029997

R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

120

0.306229
0.299150
4.058033
3227.656
-559.5963
0.056810

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

6.330875
4.847334
5.654234
5.703882
43.25701
0.000000

Sries temporelles : thorie et applications

Arthur CHARPENTIER

avec les mmes conclusions pour la srie direncie une fois,


Null Hypothesis: DX has a unit root
Exogenous: None
Bandwidth: 2 (Newey-West using Bartlett kernel)
Phillips-Perron test statistic
Test critical values:
1% level
5% level
10% level

Null Hypothesis: DX has a unit root


Exogenous: Constant, Linear Trend
Bandwidth: 2 (Newey-West using Bartlett kernel)

Adj. t-Stat

Prob.*

-0.638485
-2.576693
-1.942439
-1.615633

0.4397

*MacKinnon (1996) one -sided p-values.


0.937906
0.925710

Phillips-Perron Test Equation


Dependent Variable: D(DX)
Method: Least Squares
Date: 07/11/03 Time: 14:04
Sample(adjusted): 3 200
Included observations: 198 after adjusting endpoints
Coefficient

Std. Error

DX(-1)

-0.005587

0.008655

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

0.000805
0.000805
0.970910
185.7053
-274.6033

Adj. t -Stat

Prob.*

-1.543621
-4.005076
-3.432682
-3.140127

0.8112

*MacKinnon (1996) one-sided p-values.

Residual variance (no correction)


HAC corrected variance (Bartlett kernel)

Variable

Phillips-Perron test statistic


Test critical values:
1% level
5% level
10% level

Residual variance (no correction)


HAC corrected variance (Bartlett kernel)

0.924445
0.920735

Phillips-Perron Test Equation


Dependent Variable: D(DX)
Method: Least Squares
Date: 07/11/03 Time: 14:05
Sample(adjusted): 3 200
Included observations: 198 after adjusting endpoints

t-Statistic
-0.645434

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin -Watson stat

Prob.

Variable

Coefficient

Std. Error

t-Statistic

Prob.

0.5194

DX( -1)
C
@TREND(1)

-0.023867
0.200901
-0.000147

0.015432
0.146759
0.001309

-1.546605
1.368915
-0.112696

0.1236
0.1726
0.9104

0.035032
0.971301
2.783872
2.800479
2.089261

R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.015146
0.005045
0.968848
183.0401
-273.1722
2.081225

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

0.035032
0.971301
2.789618
2.839440
1.499425
0.225821

En revanche, dans le cas de la srie direncie deux fois, tous les tests valident lhypothse dabsence de racine unit
Null Hypothesis: D2X has a unit root
Exogenous: None
Bandwidth: 2 (Newey-West using Bartlett kernel)
Phillips-Perron test statistic
Test critical values:
1% level
5% level
10% level

Null Hypothesis: D2X has a unit root


Exogenous: Constant, Linear Trend
Bandwidth: 1 (Newey-West using Bartlett kernel)

Adj. t-Stat

Prob.*

-14.71894
-2.576753
-1.942448
-1.615628

0.0000

*MacKinnon (1996) one -sided p-values.


0.939841
0.984773

Phillips-Perron Test Equation


Dependent Variable: D(D2X)
Method: Least Squares
Date: 07/11/03 Time: 14:08
Sample(adjusted): 4 200
Included observations: 197 after adjusting endpoints
Variable

Coefficient

D2X( -1 )

-1.049877
0.525457
0.525457
0.971924
185.1487
-273.4195

Std. Error
0.071265

Adj. t -Stat

Prob.*

-14.71021
-4.005318
-3.432799
-3.140195

0.0000

*MacKinnon (1996) one-sided p-values.

Residual variance (no correction)


HAC corrected variance (Bartlett kernel)

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

Phillips-Perron test statistic


Test critical values:
1% level
5% level
10% level

Residual variance (no correction)


HAC corrected variance (Bartlett kernel)

0.936095
0.940320

Phillips-Perron Test Equation


Dependent Variable: D(D2X)
Method: Least Squares
Date: 07/11/03 Time: 14:08
Sample(adjusted): 4 200
Included observations: 197 after adjusting endpoints

t-Statistic
-14.73193

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin -Watson stat

Prob.

Variable

Coefficient

Std. Error

t-Statistic

Prob.

0.0000

D2X(-1)
C
@TREND(1)

-1.054154
0.124773
-0.000904

0.071654
0.141908
0.001224

-14.71176
0.879253
-0.738662

0.0000
0.3804
0.4610

-0.001932
1.410894
2.785985
2.802651
1.990409

R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.527348
0.522476
0.974972
184.4107
-273.0261
1.989237

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

-0.001932
1.410894
2.802296
2.852294
108.2252
0.000000

Remarques complmentaires Un certains nombres dtudes sur des donnes simules ont montr que ces tests
rejettent dicilement lhypothse H0 dans le cas de sries dsaisonnalise. Il est alors parfois intressant dagrger des
donnes mensuelles en donnes annuelles, et de tester si la srie annuelle prsente une racine unit. Nelson et Plosser
(1992) ont montr que les racines unitaires caractrisent un grand nombre de sries macroconomiques.
Bien dautres tests sont disponibles sous EViews (KP SS - Kwiatkowski, Philipps, Schmidt et Shin (1992) ou encore
Ng-Perron (1993)). Sous RAT S, un grand nombre de procdures sont galement disponibles sur http://www.estima.com/
galement des implmentations des tests de racine unit saisonnire).
Le test de Schmidt-Philipps repose sur lide que dans le cas du test ADF de type 4 - avec tendance linaire
- linterprtation des paramtre nest pas la mme : considrons le modle Yt = + t + Yt 1 + "t et lhypothse
H0 : = 0 et = 1. Sous H0 et lhypothse alternative Ha , on a respectivement

t
1
X
X

H0 : Y t = Y 0 + t +
" tk et Ha : Y t = +
+ (1 ) +
k "t k :
1
k=0

k=0

Autrement dit, sous Ha , (Y t) est stationnaire autour dune tendance dterministe dont la pente est (1 ), alors
que sous H0 , (Y t) est non stationnaire, avec pour tendance . Aussi, Schmidt et Philipps ont propos de modliser
(Y t ) sous la forme Y t = + t + Xt o (Xt ) est non stationnaire sous H0 et (Xt ) est stationnaire sous Ha . On a alors

Y t = + t + Xt
H0 = 1
2
o jj 1 et (" t) BB 0;
et on teste
:
Xt = Xt 1 + "t
Ha < 1
7.1.3

Tests de racines unitaires saisonnires

Dans le cas dune modlisation SARIM A, avec une saisonnalit dordre s, il peut tre intressant de tester lordre s.
Un certain nombre de tests on t mis en oeuvre dans les annes 80 et 90, en particulier pour tester de la saisonnalit
lordre 4 et lordre 12.
121

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Tests de Hasza et Fuller (1982) et de Osborn, Chui, Smith & Birchenhall (OCSB, 1988)
ont considr le modle
Yt = 1 Yt 1 + sY ts + s+1 Y ts 1 + "t

Hasza et Fuller

o ("t) est un bruit blanc. Lhypothse H0 scrit ici H0 : 1 = s = s+1 = 1:


Osborn, Chui, Smith et Birchenhall ont alors tendu cette approche sous la forme
(L) (1 L) (1 Ls) Yt =

s
X
i=1

sDs; t + (1 Ls ) Yt 1 + (1 L) Y ts + " t

Si lon accepte lhypothse = 0, la dirence lordre s est approprie, et si = = 0, alors le ltre


(1 L) (1 Ls) est ncessaire.
Test
de Hylleberg,

Engle, Granger et Yoo (HE GY , 1990) Ce test utilise la dcomposition des polynmes
1 L4 et 1 L12 , avec respectivement 4 et 12 racines units : dans le cas dune saisonnalit lordre s = 12, on
considre une criture de la forme
(L) P 8 (L) Y t

t + 1 P1 (L) Y t1 + 2 P 2 (L) Y t2 + 3 P3 (L) Y t1 + 4 P 3 (L) Y t2 + 5 P4 (L) Y t1 + 6 P 4 (L) Y t 2


+ 7 P 5 (L) Y t1 + 8 P5 (L) Y t2 + 9 P 6 (L) Y t1 + 10 P6 (L) Y t2 + 11 P7 (L) Y t1 + 12 P7 (L) Y t2

o les polynmes retards Pi sont dnis par


8

P1 (L) =
(1 + L)
1 + L2 1 +
L4 + L8
>
>

<
4
8
P3 (L) = 1 L2 1 + L
p + L 2

4
>
P5 (L) = 1 L 1 + 3L + L 1 + L2 + L4
>
:
P7 (L) = 1 L4 1 L2 + L4 1 + L + L2

et
et
et
et

P 2 (L)
P 4 (L)
P 6 (L)
P 8 (L)

(i)

2
4
8
= (1
L)4 1 + Lp 1 + L2 +
L ;2

= 1 L 1 3L + L 1 + L + L4 ;
= 1 L 4 1 L 2 + L 4 1 L + L 2 ;
= 1 L12 :

Les variables Zt = Pi (L) Y t sont alors associes aux direntes racines du polynme. On peut alors considrer les t de
Student pour les variables 1 et 2 , ainsi que les F de Fisher associs aux couples.( 3 ; 4 ) ; ( 5 ; 6 ) ; ( 7 ; 8) ; ( 9 ; 10 )
et ( 11 ; 12 ).
Test de Franses ( 1990)

Ce test a t mis en place pour tester une saisonnalit lordre 12.

Dtection graphique dune racine unitaire saisonnire Considrons les sries suivantes, (Xt ), (Y t) et (Zt )
comportant respectivement une racine unitaire saisonnire dordre 2; 4 et 12,

Sur ces trois graphiques, en considrant la srie partielle des autocorrlogrammes rs (h) = j (sh)j ; on obtient une
srie constante, proche de 1, de mme que lautocorrlogramme dune srie en prsence de racine unitaire.
Toutefois, si ce genre de comportement laisse penser quil y a une racine unitaire saisonnire, lordre s nest pas
ncessairement celui indiqu par lautocorrlogramme : une srie saionnire dordre 4 peut avoir un autocorrlogramme
proche de celui de gauche.
7.1.4

Complment sur la notion de sur-direntiation

Considrons la srie suivante, correspondant une marche alatoire (Xt). On notera alors Y t = (1 L) Xt et Zt =
(1 L) Y t , autrement dit, on direncie respectivement une fois et deux fois la marche alatoire. On reprsentera

122

Sries temporelles : thorie et applications

Arthur CHARPENTIER

respectivement les autocorrlations et les autocorrlation inverses, au centre et droite,


Inverse Autocorrelations

Autocorrelations

20

Lag

Covariance

0
1
2

118.497
117.047
115.741

1.00000
0.98777
0.97674

|
|
|

3
4

114.466
113.259

0.96599
0.95579

|
|

10
0
-10
-20
-30
-40
250

500

750

1000

Correlation

0.94617
0.93658
0.92658

-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1

|
|
|

Std Error

- 0.47865

0.098387
0.115749

2
3

- 0.02417
- 0.00688

|
|

. | .
. | .

|
|

4
5

0.01959
0.01927

|
|

. | .
. | .

|
|

- 0.07027

|******************* |
|******************* |

5
6
7

112.118
110.982
109.797
108.734
107.835

0.91761
0.91002

|
|

.
.

|******************
|******************

|
|

0.165889
0.175710

106.856
105.916
104.777

0.90176
0.89383
0.88421

|
|
|

.
.
.

.
.
.

|**** **************
|******************
|******************

|
|
|

0.184860
0.193424
0.201484

13
14

103.789
102.853

0.87588
0.86798

|
|

|******************
|*****************

|
|

0.209071
0.216257

15
16
17

101.833
100.603
99.335863

0.85937
0.84899
0.83830

|
|
|

.
.
.

|*****************
|*****************
|*****************

|
|
|

0.223089
0.229589
0.235760

|******************* |
|******************* |
|******************* |

0.130527
0.143541
0.155238

.*| .

0.02549
0.05313

|
|

. |*.
. |*.

|
|

- 0.04099
0.03523

|
|

.*| .
. |*.

- 0.09894
0.09051

|
|

**| .
. |**

|
|

13
14

0.01058
- 0.00824

|
|

. | .
. | .

|
|

15
16

- 0.07292
0.04292

|
|

.*| .
. |*.

|
|

17

0.01490

|
|

0.241625
0.247212

18
19

- 0.02594
0.00236

|****************
|****************
|****************

|
|
|

0.252542
0.257644
0.262541

20
21

0.00943
0.05249

.
.

|****************
|***************

|
|

0.267257
0.271793

.
.
.

|***************
|***************
|***************

|
|
|

0.276152
0.280339
0.284353

.
.
.

|**** ***********
|**************
|**************

|
|
|

0.288206
0.291886
0.295412

.
.

|**************
|**************

|
|

0.298795
0.302040

|
|

0.80830
0.79962
0.79188

|
|
|

23
24

92.828234
91.752164

0.78338
0.77430

|
|

25
26
27

90.623229
89.378820
88.174909

0.76477
0.75427
0.74411

|
|
|

28
29
30

86.735134
85.437175
84.164093

0.73196
0.72101
0.71026

|
|
|

31
32

82.899095
81.660381

0.69959
0.68913

|
|

33
34
35

80.406003
79.244523
78.109329

0.67855
0.66875
0.65917

36

76.933940

0.64925

.
.
.

|**************
|*************
|*************

|**** *********

|
|
|

0.305156
0.308147
0.311025

0.313795

7
8

|**** *************
|****************

0.82799
0.81769

**********| .

11
12

.
.

98.114218
96.893565
95.781537
94.752555
93.835797

9
10

.
.

18
19
20
21
22

-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1

8
9

|
|
|

Correlation

0
0.044632
0.076676

10
11
12

Lag

|********************|
. |********************|
. |**** ****************|

|
|

. | .

|
|

.*| .
. | .

|
|

|
|

. | .
. |*.

|
|

22
23

- 0.04692
- 0.01729

|
|

.*| .
. | .

|
|

24
25

0.02241
- 0.02886

|
|

. | .
.*| .

|
|

26

0.07200

. |*.

27
28

- 0.11490
0.07382

|
|

**| .
. |*.

|
|

29
30

0.00234
- 0.01380

|
|

. | .
. | .

|
|

31
32

0.00757
- 0.02967

|
|

. | .
.*| .

|
|

33
34

0.04559
- 0.00567

|
|

. |*.
. | .

|
|

35

- 0.03475

.*| .

36

0.019 30

. | .

"." marks two standard errors

Inverse Autocorrelations

Autocorrelations
Lag

|
|
|

. | .
. | .
.*| .

|
|
|

0.044677
0.044693
0.044694

4
5

- 0.122848
0.030231

-.06295
0.01549

|
|

.*| .
. | .

|
|

0.044844
0.045020

6
7
8

- 0.046754
- 0.083088
- 0.042463

-. 0 2 396
-.04257
-.02176

|
|
|

. | .
.*| .
. | .

|
|
|

0.045031
0.045056
0.045136

9
10

0.094738
0.010367

0.04854
0.00531

|
|

. |*.
. | .

|
|

0.045157
0.045261

11
12
13

0.172028
- 0.047280
0.038754

0.08815
-.02423
0.01986

|
|
|

. |**
. | .
. | .

|
|
|

0.045263
0.045604
0.045630

500

750

0.067319
0.114811

0.03449
0.05883

|
|

. |*.
. |*.

|
|

0.045647
0.045699

0.04461
-.00591
-.04889

|
|
|

. |*.
. | .
.*| .

|
|
|

0.045850
0.045936
0.045938

19
20

0.029021
0.014966

0.01487
0.00767

|
|

. | .
. | .

|
|

0.046042
0.046051

21
22
23

- 0.091590
-0.0021886
0.055409

-.04693
-.00112
0.02839

|
|
|

.*| .
. | .
. |*.

|
|
|

0.046054
0.046149
0.046149

24
25

-0.0087323
0.098691

-4
250

|********************|

0.087056
- 0.011539
- 0.095413

16
17
18

-3

Std Error

-.01899
0.00432
-.05810

14
15

-1
-2

-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1

1.00000

- 0.037060
0.0084385
- 0.113388

Correlation

1.951601

1
2
3

Covariance

1000

-.00447
0.05057

|
|

. | .
. |*.

|
|

0.046184
0.046185

26
27
28

- 0.068891
0.130526
- 0.149810

-.03530
0.06688
-.07676

|
|
|

.*| .
. |*.
**| .

|
|
|

0.046295
0.046349
0.046541

29
30
31

- 0.045138
0.012506
0.064693

-.02313
0.00641
0.03315

|
|
|

. | .
. | .
. |*.

|
|
|

0.046793
0.046816
0.046818

32
33

- 0.040056
- 0.076052

-.02052
-.03897

|
|

. | .
.*| .

|
|

0.046865
0.046883

34
35
36

- 0.099367
- 0.023904
0.030128

-.05092
-. 0 1 225
0.01544

|
|
|

.*| .
. | .
. | .

|
|
|

0.046947
0.047057
0.047064

Lag

Correlation

-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1

1
2

0.02583
0.02382

|
|

. |*.
.| .

|
|

3
4

0.05540
0.10253

|
|

. |*.
. |**

|
|

5
6

-0.01569
0.03377

|
|

. | .
. |*.

7
8

0.02562
0.03111

|
|

. |*.
. |*.

|
|
|
|

9
10

-0.06939
-0.01005

|
|

.*| .
. | .

|
|

11
12
13

-0.09205
0.00675
-0.05308

|
|
|

**| .
. | .
.*| .

|
|
|

14
15

-0.03180
-0.08725

|
|

.*| .
**| .

|
|

16
17

-0.04029
-0.03261

|
|

.*| .
.*| .

|
|

18
19

0.02742
-0.06047

|
|

. |*.
.*| .

|
|

20
21

-0.01299
0.03196

|
|

. | .
. |*.

|
|

22
23

0.01293
-0.05692

|
|

. | .
.*| .

|
|

24
25
26

0.01556
-0.01881
0.04697

|
|
|

. | .
. | .
. |*.

|
|
|

27
28

-0.05767
0.08423

|
|

.*| .
. |**

|
|

29
30

0.03435
0.01313

|
|

. |*.
. | .

|
|

31
32

-0.02299
0.03541

|
|

. | .
. |*.

|
|

33
34

0.03828
0.05492

|
|

. |*.
. |*.

|
|

35
36

0.01036
0.01159

|
|

. | .
. | .

|
|

"." marks two standard errors

Inverse Autocorrelations

Autocorrelations

Lag

0
0.044721
0.055207

0.92197

2
3

0.84723
0.77535

|
|

1.00000
-.51182
0.04572

|
|
|

3
4

-0.113464
-0.176131

-.02859
-.04438

|
|

.*| .
.*| .

|
|

0.055283
0.055313

4
5

0.70122
0.61560

|
|

. |**************
. |************

|
|

5
6
7

0.255331
-0.054876
-0.094385

0.06434
-.01383
-.02378

|
|
|

. |*.
. | .
. | .

|
|
|

0.055384
0.055533
0.055540

6
7

0.53893
0.45780

|
|

. |***********
. |*********

|
|

8
9
10

-0.082030
0.217745
-0.237175

-.02067
0.05487
-.05976

|
|
|

. | .
. |*.
.*| .

|
|
|

0.055560
0.055576
0.055684

11
12

0.366656
-0.308261

0.09239
-.07767

|
|

. |**
**| .

|
|

0.055812
0.056117

|********************|
**********| .
|
. |*.
|

13
14
15

0.067308
0.00020930
0.054488

0.01696
0.00005
0.01373

|
|
|

. | .
. | .
. | .

|
|
|

0.056332
0.056342
0.056342

16
17

0.076474
- 0.0001716

0.01927
-.00004

|
|

. | .
. | .

|
|

0.056349
0.056362

-2

18
19
20

-0.238021
0.150418
0.089441

-.05998
0.03790
0.02254

|
|
|

.*| .
. |*.
. | .

|
|
|

0.056362
0.056489
0.056540

21
22
23

-0.177946
0.029772
0.115280

-.04484
0.00750
0.02905

|
|
|

.*| .
. | .
. |*.

|
|
|

0.056558
0.056629
0.056631

24
25

-0.172246
0.271504

-.04340
0.06841

|
|

.*| .
. |*.

|
|

0.056661
0.056727

26
27
28

-0.354107
0.470429
-0.384039

-.08923
0.11854
-.09677

|
|
|

**| .
. |**
**| .

|
|
|

0.056892
0.057171
0.057661

29
30

0.039738
0.0033611

0.01001
0.00085

|
|

. | .
. | .

|
|

0.057985
0.057988

31
32
33

0.162465
-0.070734
0.00095295

0.04094
-.01782
0.00024

|
|
|

. |*.
. | .
. | .

|
|
|

0.057988
0.058046
0.058057

34
35

-0.097395
0.019390

-.02454
0.00489

|
|

. | .
. | .

|
|

0.058057
0.058078

36

-0.076424

-.01926

. | .

0.058078

-6
250

500

750

1000

-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1

Correlation

3.968614
-2.031220
0.181453

-4

Correlation

Covariance

0
1
2

-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1

Std Error

Lag

8
9

0.37445
0.28937

|
|

. |******************

. |*****************
. |****************

|
|

. |*******
. |******

|
|

10
11

0.22085
0 . 15320

|
|

. |****
. |***

|
|

12
13

0.10186
0.05061

|
|

. |**
. |*.

|
|

14
15

0.01171
-0.02166

. | .
. | .

|
|

16
17

-0.03956
-0.04823

|
|

.*| .
.*| .

|
|

18
19

-0.05007
-0.05759

|
|

.*| .
.*| .

|
|

20
21

-0.05239
-0.04302

.*| .
.*| .

|
|

22
23

-0.03698
-0.03360

|
|

.*| .
.*| .

|
|

24
25

-0.02050
-0.00991

|
|

. | .
. | .

|
|

|
|

26
27

0.00534
0.01280

|
|

. | .
. | .

|
|

28
29

0.03067
0.03363

|
|

. |*.
. |*.

|
|

30
31

0.03227
0.03109

. |*.
. |*.

|
|

32

0.03606

. |*.

33
34

0.03575
0.03311

|
|

. |*.
. |*.

|
|

35
36

0.02420
0.01333

|
|

. | .
. | .

|
|

|
|
|

"." marks two standard errors

Comme nous lavons dj voqu, lautocorrlogramme de la srie (Xt ) permet - a priori - de conclure la prsence
dune racine unit. Le comportement de lautocorrlogramme inverse de la srie (Zt) prsente, de faon moins nette
certes, le mme genre de comportement.
On peut noter galement sur les autocorrlogrammes de (Yt ), correspondant un bruit blanc, que les autocorrlations et les autocorrlations inverses sont identiques (ce qui est une caractrisation des bruits blancs).
[A COMPLETER]

7.2

Estimation des ordres p et q dun modle ARM A (p; q)


d

Pour lestimation des paramtres p et q, on utilise le fait que si (Xt ) suit un ARIM A (p; d; q), alors (1 L) Xt
suit asymptotiquement un processus ARM A (p; q). En pratique, lide est daplliquer la rgle suivante : si (Xt ) s
ARIM A (p; d; q) alors (1 L)d Xt s ARM A (p; q).
On appelle processus ARM A (p; q), un processus stationnaire (Xt ) vriant une relation du type
Xt +

p
X
i=1

iXti = " t +

q
X
j=1

i"ti pour tout t 2 Z,

o les i sont des rels et ("t) est un bruit blanc de variance 2 . (22) est quivalent lcriture

(L) = I + 1 L + ::: + q Lq
(L) Xt = (L) " t o
(L) = I + 1 L + ::: + p Lp :

(31)

(32)

On supposera de plus que les polymes et nont pas de racines en module strictement suprieures 1 (criture sous
forme canonique), et nont pas de racine commune. On supposera de plus que les degrs de et sont respectivement
q et p, au sens o q 6= 0 et p 6= 0.
123

Sries temporelles : thorie et applications

7.2.1

Arthur CHARPENTIER

Problmes dunicit de la reprsentation ARM A

On peut noter que lcriture ARM A (32) nest pas unique. En eet, il sut de multiplier gauche et droite de (32)
par un mme polynme en L, (L). Alors, en posant (L) = (L) (L) et (L) = (L) (L), on peut noter

que (L) Xt = (L) "t .


Proprit 47 Soit un polynme dont les racines z 2 C soient toutes lextrieur du disque unit. Alors lquation
(L) Xt = (L) "t admet une solution stationnaire (Xt) et celle-ci est unique.
Dnissons la matrice suivante, partir des autocorrlations (h) du processus stationnaire (Xt )
2
3
(i)
(i 1)
(i 2)
(i j + 2) (i j + 1)
6 (i + 1)
(i)
(i 1)
(i j + 3) (i j + 2) 7
6
7
6
7
..
6 (i + 2)
7
.

(i
+
1)

(i)

(i

j
+
4)

(i

j
+
3)
6
7
- i;j = 6
7
.
.
.
..
..
..
6
7
6
7
6
7
4 (i + j 2) (i + j 3) (i + j 4) . . .
(i)
(i 1) 5
(i + j 1) (i + j 2) (i + j 3)
(i + 1)
(i)

et soit (i; j) son dterminant.

Dnition 44 Un processus (Xt ) est un ARM A (p; q) minimal si (L) Xt = (L) "t o (" t) est un bruit blanc et
o et sont de degr respectif p et q (avec p 6= 0 et q 6= 0) dont les racines sont de module suprieur 1, et o
et nont pas de racines communes.
Proprit 48 Le processus (Xt) est un ARM A (p; q) minimal si et seulement si
(i) (i; j) = 0 pour i q + 1 et j p + 1;
(ii) (i; j) 6= 0 pour i q;
(iii) (i; j) 6= 0 pour j p:

Autrement dit, on peut construire le tableau des (i; j), et il aura la forme suivante pour un processus ARM A (p; q)
minimal,
inj
1
2
..
.
q
q+1
q+2
..
.

1
2
(1; 1)
(1; 2)
(2; 1)
(2; 2)
..
..
.
.
(q; 1)
(q; 2)
(q + 1; 1) (q + 1; 2)
(q + 2; 1) (q + 2; 2)
..
..
.
.

p
(1; p)
(2; p)
..
.
(q; p)
(q + 1; p)
(q + 2; p)
..
.

p+1
(1; p + 1)
(2; p + 1)
..
.
(q; p + 1)
0
0
..
.

p+2
(1; p + 2)
(2; p + 2)
(q; p + 2)
0
0
..
.

soit

o les termes Dp;q , Dq et Dp sont non-nuls.


Remarque 49 Dans le cas dun processus M A (q), le tableau des (i; j ) a la forme suivante

Dq
0

inj
1
2
..
.

1
(1; 1)
(2; 1)
..
.

2
(1; 2)
(2; 2)
..
.

q
q+1
q+2
..
.

(q; 1)
0
0
..
.

(q; 2)
0
0
..
.

Remarque 50 Dans le cas dun processus AR (p), le tableau des (i; j) a la forme suivante

Dp

inj
1
=
2
..
.

1
2

(1; 1) (1; 2)
(2; 1) (2; 2)
..
..
.
.
124

p
p+1
(1; p)
0
(2; p)
0
..
..
.
.

p+2
0
0
..
.

Dp; q
Dq

Dp
0

Sries temporelles : thorie et applications

Arthur CHARPENTIER

j1

Lautocorrlogramme partiel scrit a (h) = (1)


(1; j) = (0; j ) o (0; j ) est strictement positif (comme dterminant dune matrice de corrlation) pour un AR (p), et donc a (h) = 0 pour h p + 1.
7.2.2

Comportement asymptotique des moments empiriques

Nous avions vu dans la partie (2:4:3) que les moments empiriques ( (h) ; (h) ; i (h) :::) convergeaient vers les vraies
moments.
Proprit 49 Sous lhypothse o (Xt ) s M A (q), et que ("t ) est stationnaire lordre 4, alors
p
(h) (h)
b
L
T p T Pq
! N (0; 1) pour h > q:
1 + 2 k=1 2 (k)

Cette proposition permet en particulier davoir lintervalle de conance 95% des autocorrlations,
"
r
#
Pq
1 + 2 k=1 2 (k)
T (h) 1:96
b
:
T

(33)

Proprit 50 Sous lhypothse o (Xt ) s AR (p), et que ("t ) est stationnaire lordre 4, alors
p
L
T [b
aT (h) a (h)] ! N (0; 1) pour h > q:

Cette proposition permet en particulier davoir lintervalle de conance 95% des autocorrlations partielles,

1
baT (h) 1:96 p
;
T

(rsultat de Quenouille, 1949 ).


7.2.3

Mthode pratique destimation des ordres p et q

Pour estimer les ordres p ou q, on utilise les proprits vues prcdemment sur les formes des autocorrlogrammes
( (h)) ou des autocorrlogrammes partiels (a (h)). En particulier
(i) pour les processus AR (p) lautocorrlogramme partiel sannule partir de p ( gauche)
(ii) pour les processus M A (q) lautocorrlogramme sannule partir de q ( droite)

Remarque 51 Sil reste de la saisonnalit, celle-ci apparatra galement dans les autocorrlogrammes
6
4
2
0
-2
-4
-6
-8

100

200

300

400

500

600

700

800

A3

125

Sries temporelles : thorie et applications

7.2.4

Arthur CHARPENTIER

Cas dun processus M A (q)

Si (Xt) suit un processus M A (q), on peut noter que la variance des autocorrlations empiriques est donne par la
relation
q
X
V (b
(h)) t 1 + 2
2 (i) ; pour h > q;
i= 1

et donc, on peut prendre comme estimation de lcart-type


v
u
q
X
1 u
(b (h)) = p t1 + 2
b
b2 (i):
T
i=1

En pratique, on identie q, ordre dun processus M A (q) comme la premire valeur partir de laquelle les (h) sont
dans lintervalle dont les extrmits sont dlimites par

i1=2
1:96 h
p
1 + 2 b2 (1) + b
2 (2) + ::: + b
2 (h 1)
;
T
puisque sous lhypothse o le processus est eectivment un M A (q)
p
7.2.5

L
Tb
(h) ! N 0; 1 + 2 2 (1) + ::: + 2 (q 1) pour h > q:

Cas dun processus ARM A (p; q)

La mthode du coin (Beguin, Gourieroux, Monfort) La mthode suivante, dite mthode du coin permet
destimer conjointement p et q lorsque les deux sont non-nuls. Elle est base sur la proprit (48) : Les valeurs de - ij
o
2
3
(i)
(i 1)
(i 2)
(i j + 2) (i j + 1)
6 (i + 1)
(i)
(i 1)
(i j + 3) (i j + 2) 7
6
7
6
7
.
.
6 (i + 2)
.
(i + 1)
(i)
(i j + 4) (i j + 3) 7
6
7
- i;j = 6
7
..
..
..
6
7
.
.
.
6
7
6
7
.
..
4 (i + j 2) (i + j 3) (i + j 4)
(i)
(i 1) 5
(i + j 1) (i + j 2) (i + j 3)
(i + 1)
(i)
sont inconnues mais peuvent tre estime par les b (h). On pose alors (i; j ) = det - ij , qui sera, de la mme
b (i; j) = det b ij . Les
b (i; j ) sont alors des estimateurs convergents des (i; j) (par continuit
faon, estim par
du dterminant). Les coecients p et q sont alors les valeurs pour lesquels sobservent une rupture. La variance
b (i; j )est une fonction direntiable du vecteur des autocorrlations b
asymptotique de
(h), avec une loi normale
asymptotique.
r

b (i; j) = Vb
b (i; j ) , qui doit tre compare
Un test de nullit est bas sur lutilisation de la statistique de Student
1:96 pour un seuil de 5%.

Exemple 78 Considrons le processus simul (sur 250 valeurs) (1 0:5L) Xt = 1 + 0:1L 0:7L2 " t o ("t ) est un
bruit blanc gaussien de variance 1
4
2
0
-2
-4
-6

50

100

150

200

250

ARMA

126

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Le tableau des ij est donn par


inj
1
2
3
4
5

1
0:352
0:296
0:316
0:179
0:036

2
0:420
0:199
0:047
0:021
0:010

3
0:006
0:067
0:006
0:000
0:002

4
0:095
0:022
0:001
0:001
0:001

5
inj
0:003
1
0:006
2
t
0:003
3
0:001
4
0:000
5

En eet, par exemple, le terme 1;2 est donn par


(1) (0) 0:352
=
1;2 =
(2) (1) 0:296

1
0:352
0:296
0:316
0:179
0:036

2
0:420
0:199
0:047
0:021
0:010

3
4
0:006
0:095
0:067 0:022
0.000 0.000
0.000 0.000
0.000 0.000

5
0:003
0:006
0.000
0.000
0.000

1
= 0:3522 + 0:296 = 0:420:
0:352

Lapproximation indique ci-dessous semble valider lhypothse de modlisation ARM A (1; 2). Cette intuition est conrme en tudiant le tableau des Student.
Utilisation de la fonction dautocorrlation tendue (Tsay, & Ciao) Cette mthode est appele ESCAF
(Extended Sample Autocorrelation Function) sous SAS, et est dcrite dans la document SAS E T S (pages 236237 ). Pour cela, on eectue des regressions linaires, de faon itrative pour calculer les paramtres AR dun ARM A
(stationnaire ou pas ). Ensuite, partir de cette estimation, la srie observe est modlise sous forme M A.
Soit (Xt ) un processus ARM A (p; q) dont on observe n ralisations, suivant le modle
(L) Xt = (1 L)d (L) Xt = (L) "t o ("t ) suit un bruit blanc de variance 2 :
Sur la partie autorgressive du processus, on utilise une rgression linaire pour obtenir des estimateurs (par moindres
carrs) des paramtres autorgressifs de la composante AR. On dnit alors la premire regression
Xt =

p
X

|i=0

1
p;1 p;0
p;1
p;
i Xt i + i t1 + u t :

{z

Form e a u tor gre ss ive

Ce modle est estim par les mco. On dnit alors la k-me rgression itrative dun AR (m) quelconque
Xt =

m
X

m;k
Xti +
i

i=0

k
X

m;k
m;k
j;k
;
j
tj + u t

j=0

o les j;k
sont les erreurs du processus AR de la k-ime rgression, et les u m;k
les rsidus de la rgression. Comme
t
t
on ignore lordre p de la partie autorgressive, on choisit m variant de 1 p0 , et on eectue q 0 rgressions itratives :
on choisira a priori p 0 et q0 susamment grands. Les paramtres peuvent alors tre estims rcursivement par
m+1;j1
m;j
m+1;j 1
m;j 1 b
m+1
b
b
b
i = i
i1
:
m;j 1
b
m

Ces paramtres sont alors utiliss pour dnir la E SACF , fonction dautocorrlation tendue, telle que la dnie
Tsay et Tia (1984),
Dnition 45 On appelle fonction dautocorrlation tendue la fonction rj (m), fonction dautocorrlation du processus
m
X
m;j
m
b
!j = Xt
i Xti pour j = 1; 2; :::
i=1

Si le processus suit un ARM A (p + d; q) la srie ! m


j suit un processus M A (q) pour j q, cest dire

rj (p + d) t 0 pour j > q
rj (p + q) 6= 0 pour j = q:

127

(34)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La table ESACF est alors dnie par


ARnMA
0
1
2
3
..
.

0
r1 (0)
r1 (1)
r1 (2)
r1 (3)
..
.

1
r2 (0)
r2 (1)
r2 (2)
r2 (3)
..
.

2
r3 (0)
r3 (1)
r3 (2)
r3 (3)
..
.

3
r4 (0)
r4 (1)
r4 (2)
r4 (3)
..
.

p
La nullit thorique de (34) est interprte statistiquement par une valeur infrieur 1:96= n.
Mthode SCAN Cette mthode vise utiliser la plus petite corrlation canonique (smallest canonical correlation)
pour identier les ordres p et q: Elle a t implmente sous SAS, et est dcrite dans la document SAS E T S (pages
239-241 ). La syntaxe pour utiliser cette procdure ou la pro cdure ESACF est la suivante
proc arima data = base;
identify var = x esacf scan;
run;
Considrons une srie Xt que nous allons centrer, Zt = Xt ; dont on observe n ralisations, suivant un processus
ARIM A (p; d; q). Cette mthode analyse les valeurs propres de la matrice de corrlation du processus.
[A COMPLETER]
Exemple 79 Dans le cas dun processus ARM A (2; 1), les tables E SACF et SC AN thoriques seront de la forme
ARnMA
0
1
2
3
4

Table ESAC F
0 1 2 3


0 0 0
0 0
0

0
0
0

0
0
0

Table SC AN
0 1 2 3


0 0 0
0 0 0
0 0 0

ARnMA
0
1
2
3
4

0
0
0

0
0
0

0
0
0

0
0
0

o lordre de lAR se lit gauche, et lordre du M A se lit en haut. Dans lexemple ci-dessous, nous avons simul 1500
ralisations dun tel processus.
ARIMA Procedure

ARIMA Procedure

Extended Sample Autocorrelation Function


Lags

MA 0

AR 0
AR 1
AR 2
AR 3
AR 4
AR 5

0.5312
0.5206
-0.4404
-0.4803
-0.4981
-0.4721

Squared Canonical Correlation Estimates

MA 1

MA 2

MA 3

MA 4

MA 5

Lags

MA 0

MA 1

MA 2

MA 3

MA 4

MA 5

0.0134
0.0203
-0.0326
0.1110
-0.5046
-0.0174

-0.3184
-0.2599
-0.0757
-0.1018
-0.3928
-0.3009

-0.4086
-0.1589
0.0609
0.0609
0.0213
0.1085

-0.3562
-0.1552
0.0045
0.0114
0.0523
0.0143

-0.2131
-0.1731
-0.0305
-0.0188
-0.0252
-0.0257

AR 0
AR 1
AR 2
AR 3
AR 4
AR 5

0.2828
0.1413
0.0441
0.0225
0.0323
0.0154

0.0002
0.1353
0.0005
0.0017
0.0021
0.0001

0.1020
0.1208
0.0023
0.0024
0.0025
0.0005

0.1685
0.0242
0.0013
0.0017
0.0001
0.0005

0.1282
0.0148
0.0001
0.0004
0.0005
0.0002

0.0459
0.0145
0.0004
0.0003
0.0003
0.0006

MA 4

MA 5
Lags

MA 0

MA 1

MA 2

MA 3

MA 4

MA 5

AR 0
AR 1
AR 2
AR 3
AR 4
AR 5

0.0001
0.0001
0.0001
0.0001
0.0001
0.0001

0.6782
0.0001
0.4834
0.1990
0.1510
0.9782

0.0001
0.0001
0.1152
0.1480
0.1198
0.4712

0.0001
0.0001
0.2162
0.1700
0.8188
0.4376

0.0001
0.0001
0.9077
0.4922
0.4879
0.6296

0.0001
0.0001
0.5113
0.6210
0.5618
0.4168

ESACF Probability Values


Lags
AR 0
AR 1
AR 2
AR 3
AR 4
AR 5

MA 0
0.0001
0.0001
0.0001
0.0001
0.0001
0.0001

MA 1
0.6786
0.5352
0.2836
0.0010
0.0001
0.5715

MA 2
0.0001
0.0001
0.0094
0.0012
0.0001
0.0001

MA 3
0.0001
0.0001
0.0496
0.0544
0.4967
0.0021

0.0001
0.0001
0.8859
0.7021
0.1254
0.6058

SCAN Chi-Square[1] Probability Values

0.0001
0.0001
0.3192
0.5632
0.4283
0.4184

ARMA(p+d,q) Tentative Order Selection Tests


(5% Significance Level)
ESACF p+d
3
4
2

ARMA(p+d,q) Tentative Order Selection Tests


(5% Significance Level)

q
3
3
4

SCAN p+d q
2 1

Les sorties ESACF ,et SC AN peuvent se rcrire


ARnMA
0
1
2
3
4

0
0:53
0:52
0:44
0:48
0:50

Table
1
0:01
0:02
-0.03
0:11
0:51

ESAC F
2
3
0:32 0:41
0:25 0:16
-0.08 -0.06
-0.10 -0.06
0:40 0.02

4
0:36
0:16
0.00
0.01
0.05

5
0:21
0:17
-0.03
-0.02
-0.02
128

ARnMA
0
1
2
3
4

0
0:28
0:14
0:04
0:02
0:03

Table
1
0:00
0:14
0.00
0.00
0.00

SC AN
2
3
0:10 0:17
0:12 0:02
0.00 0.00
0.00 0.00
0.00 0.00

4
0:13
0:01
0.00
0.00
0.00

5
0:05
0:01
0.00
0.00
0.00

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Comme on peut le noter, la mthode SCAN donne de trs bon rsultats, et permet didentier les ordres 2 et 1.
Remarque 52 SAS propose une mthode supplmentaire pour estimer lordre des processus ARM A : la mthode
M IN IC:
7.2.6

Proprit des estimateurs

0
En notant ! = 1 ; :::; p ; 1 ; :::; q , on a le rsultat suivant

Proprit 51 Lestimateur du maximum de vraissemblance est convergent, et asymptotiquement normal,


p

! T !)
L
0
- 0
pT (b
!N
;
:
0
0 a
T (b
T )
Cette proprit permet de mettre en place des tests sur les paramtres.

7.3

Test de bruit blanc et de stationnarit


d

Lhypothse (Xt) s ARIM A (p; d; q) peut scrire (1 L) (L) Xt = (L) "t, ou encore
1

"t = (L)

(1 L) (L) Xt :

b (L) et
b (L), qui
Une fois estims les paramres d; p; q et lensemble des i et j , on obtient des polynmes estims
permettent dobtenir les rsidus estims,
b (L) 1 (1 L)d
b (L) Xt :
b"t =

Pour que les modles obtenus prcdamment soient valides, il convient de vrier que les rsidus estims suivent bien
un bruit blanc H0 : ("t ) s BB.
7.3.1

Analyse des fonctions dautocorrlation

Lautocorrlation peut tre estime par


(h) =
b

n k
n

b (h)

1 X
1X
o b
(h) =
Xt X Xt h X et X =
X t:
(0)
b
n h t=1
n t=1

h
p
p i
Lintervalle de conance de b
(h) est, dans le cas dun bruit blanc gaussien t=2 = T ; t=2 = T o t=2 est le quantile
dordre =2 de la loi de Student (1:96 pour = 5%). Pour avoir un bruit blanc, il est ncessaire quaucune valeur de
lautocorrlogramme ne soit signicativement non-nulle.
Exemple 80 Pour la srie (1) gauche, aucune valeur nest signicativement non-nulle alors que pour la srie (2),
droite, certaines le sont, en particulier pour h = 8 ou h = 16.

129

Sries temporelles : thorie et applications

7.3.2

Arthur CHARPENTIER

Statistique de Box-Pierce, ou test de portmanteau

Le test de Box-Pierce permet didentier les processus de bruit blanc (i.e. les processus alatoires de moyenne nulle,
de variance constante et non autocorrls). Cette statistique permet de tester cov (" t; "t h ) = 0 pour tout h, soit
(h) = 0 pour tout h. Ce test scrit

H0 : (1) = (2) = ::: = (h) = 0


Ha : il existe i tel que (i) 6= 0:
Pour eectuer ce test, on utilise la statistique de Box et Pierce (1970) Q, donne par
Qh = T

h
X

k=1

k ;
b

o h est le nombre de retards, T est le nombre dobservations et b


k lautocorrlation empirique. Asymptotiquement,
sous H0 , Q h suit un 2 h degrs de libert. Nous rejetons lhypothse de bruit blanc au seuil h si Q est suprieure
au quantile dordre (1 ) de la loi du 2 h degrs de libert.
Une statistique ayant de meilleurs proprits asymptotiques peut tre utilise :
Q 0h = T (T + 2)

h
X

k=1

bk

;
T k

qui suit asymptotiquement, sous H0 une loi du 2 h degrs de libert. Ces tests sont appels par les anglo-saxons
portmanteau tests, soit littralement tests fourre-tout .
Exemple 81 Cette statistique est gnralement fournie avec lautocorrlogramme (Q-stat). Les deux sorties cidessous correspondent aux valeurs pour 2 sries de rsidus

La table du 2 est donne ci-dessous. A titre comparatif, nous obtenons le tableau suivant
h
Srie (1)
Srie (2)
10% (h)
5% (h)

1
0:000
2:088
2:706
3:841

2
0:102
2:206
4:605
5:991

3
0:819
4:059
6:251
7:815

4
4:095
4:673
7:779
9:488

5
4:476
7:2646
9:236
11:070

6
6:852
8:643
10:645
12:592

7
9:087
10:341
12:017
14:067

8
10:676
19:234
13:362
15:507

9
11:310
19:281
14:684
16:919

10
11:388
19:281
15:987
18:307

Si la srie (1) est statistiquement un bruit blanc, il ne semble pas en tre de mme pour la seconde srie, pour
laquelle Qh est parfois trop eleve (en particulier partir de h = 8 - ce qui tait conrm par lanalyse graphique des
autocorrlogrammes, avec cette valeur (8) signicativement non nulle). Le seuil apparait dailleurs en pointill sous
E V iews, et en . sous SAS.
7.3.3

Complments : les tests de normalit

Dans le cadre de la prvision, ou lors des tests de Student sur les paramtres, il convient de vrier la normalit
des rsidus. Un test possible est celui de Bera & Jarque (1984), bas sur le skewness (coecient dasymtrie de la
distribution) et la kurtosis (aplatissement - paisseur des queues).
130

Sries temporelles : thorie et applications

Arthur CHARPENTIER

k
En notant k le moment dordre k de la distribution, k = E [X E (X)] , on appelle skewness le coecient
3=2

s = 3 =2 et kurtosis k = 4 =22 . Sous des hypothses de normalit, on a normalit des estimateurs du skewness et
de la kurtosis,
p

L
L
s ! N 0; 6=T et k ! N 3; 24=T quand T ! 1:
Le test de Bera & Jarque repose sur le fait que, si la distribution suit une loi normale, alors la quantit
BJ =

T 2
T
2
s +
[k 3] ;
6
24

suit asymptotiquement une loi du 2 2 degrs de libert. Aussi, si BJ 21 (2) on rejette lhypothse H0 de
normalit des rsidus au seuil .
Exemple 82 Dans lexemple ci-dessous, les rsidus suivent eectivement une loi normale N (0; 1)
4
100
Series: RESIDUS1
Sample 1 1000
Observations 1000

2
80

60

40

-2

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

0.006772
-0.009971
3.372898
-3.376546
1.050788
-0.006424
2.876155

Jarque-Bera
Probability

0.645941
0.723995

20

-4
200

400

600

800

1000

-3

-2

-1

RESIDUS1

La kurtosis vaut 2:876 (3 pour une loi normale) et le skewness 0:006 (0 pour un loi normale). La statistique de Bera
& Jarque vaut alors 0:6459, qui est infrieur le centile du 2 2 degrs de libert, au seuil = 5%, soit 5:991(table
ci-dessous).
Exemple 83 Dans lexemple ci-dessous, les rsidus ne suivent pas une loi normale N (0; 1)
6
140

Series: RESIDUS2
Sample 1 1000
Observations 1000

120

100

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

80

60
40

-2

20

0.052278
0.006300
5.332330
-3.832115
1.128819
0.395539
4.405434

Jarque-Bera 108.3770
Probability 0.000000

-4
200

400

600

800

-3.75 -2.50 -1.25 0.00

1000

1.25

2.50

3.75

5.00

RESIDUS2

La distribution est beaucoup trop aplatie pour suivre une loi normale (kurtosis valant 4:4), avec un asymtrie galement
trop forte. La statistique de Bera & Jarque vaut alors 108 >> 5:991.
Remarque 53 La table ci-dessous est la table de la loi du chi-deux, o P est le seuil et le nombre de degrs de

131

Sries temporelles : thorie et applications

Arthur CHARPENTIER

libert

7.3.4

Complment : Test de rupture et de changement de tendance

Perron a propos dintroduire, ds 1989, dans la rgression de Dickey & Fuller une variable indicatrice spciant
lexistence dune rupture. La date de rupture peut dailleurs tre connue ou inconnue. Dans le cas o elle est inconnue,
une procdure squentielle permet de la localiser. Ce lien entre les tests de racine unit et les changements de structure
ont donn lieu de nombreuses publications depuis une dizaine dannes. Direntes formes de changement de structure
ont dailleurs t tudies : changement de niveau, changement du coecient de tendance linaire, changement sur les
coecients des variables de la modlisation...etc.
Les tests de racine unit Plusieurs tests ont t implments an de tester lhypothse nulle que la srie stationnaire (Y t) possde une racine unit et une constante, ventuellement nulle, avec une rupture au temps o 1 < < T ,
contre lhypothse alternative que la srie soit stationnaire autour dune tendance linaire avec rupture en sur cette
tendance. Une distinction est alors gnralement apporte entre deux cas :
AO - additive outliers - eet instantann
IO - innovational outliser - eet avec transition
Pour chacun des eets, trois modles sont alors considrs : dans la version AO
8
< (1) Xt = + t + DUt ( ) + Yt
pour t = 1; :::; T ;
(2) Xt = + t + DTt ( ) + Y t
pour t = 1; :::; T ;
:
(3) Xt = + t + DUt ( ) + DT t ( ) + Y t pour t = 1; :::; T ;

o (Yt ) est la srie (Xt ) laquelle on a retir la tendance dterministe, avec DUt ( ) = 1 si t > et 0 sinon
(DUt ( ) = I (t > )) et DT t ( ) = (t ) si t > , 0 sinon (DT t ( ) = [t ] :I (t > )). La mise en oeuvre du test se
fait en deux tapes ;
(i) estimation (par une mthode de type moindre carrs) de la tendance avec les modles de rgression (1), (2) et
(3), et calcul de la srie rsiduelle obtenue en retranchant la srie observe la tendance estime
(ii) pour les modles (1) et (3), le test est bas sur la valeur de la t-statistique relative = 0, not tb ( ) et
correspond au test de racine unit dans la rgression ADF
Yt = Y t1 +

k
X

j=0

dj DT Bt j ( ) +

k
X

i Y ti + "t

o DT Btj ( ) = I (t = + 1) :

i=1

Pour le modle (2), la seconde tape consiste eectuer la rgression


Yt = Y t1 +

k
X
i=1

132

iY ti + "t ,

Sries temporelles : thorie et applications

Arthur CHARPENTIER

et utiliser la t-statistique tb ( ) pour eectuer les tests classiques ADF .


Dans la version IO, les quations de rgression scrivent
8
h
i
Pk
>
(1)
X
=

+
t
+
DU
(
)
+
DT
B
(
)
+
X
+
c
X
+
"
>
t
t
t
t1
ti
t
i=1 i
>
<
h
i
Pk

(2) Xt = + t + DT t ( ) + Xt1 + i=1 ciXt i + " t


>
h
i
>
P
>
: (3) Xt = + t + DUt ( ) + DT Bt ( ) + DT t ( ) + Xt1 + k ciXt i + " t
i=1

pour t = 1; :::; T ;
pour t = 1; :::; T ;
pour t = 1; :::; T ;

o, encore une fois, DT Bt ( ) = I (t = + 1). Le test de Zivot et Andrews (1992) considre seulement les modles
de type IO, sans introduire lindicatrice DT Bt j ( ) (la justication tant que ce coecient est asymptotiquement
ngligeable) 21 .
Toutefois, dans le cas gnral, la date de rupture est inconnue, ainsi que le paramtre k, permettant dapprocher
le processus ARM A (p; q) par un processus AR (k + 1). Direntes mthodes pour slectionner k ont t propose
par Perron (1989et 1993) pour les trois modles et les deux types deets, AO et IO. Les procdures squentielles
didentication de Zivot et Andrews (1992) et de Perron (1993) permettent de dterminer , ou plutt = =T . Cette
mthode consiste estimer les modles de rgressions (A), (B) et (C ) dans les deux cas AO et IO, et retenir le cas
o tb ( ) = tb () est minimal. Les auteurs ont tudi la disctribution asymptotique de inf tb () quand appartient
un intervalle ferm de ]0; 1[, = [3=20; 17=20] dans ltude de Zivot et Andrews. On rejette alors lhypothse nulle
de prsence de racine unit si inf ftb () ; 2 g est plus petit que le fractile correspondant une probabilit xe de
la distribution asymptotique de inf ftb () ; 2 g.
Les tests de Gregory et Hansen
(1996) Ces tests sont une gnralisation des tests de Zivot et Andrews dans le

cas mutlivari, o Xt = Xt1 ; Xt2 .

Les tests du CU SU M Ce test permet dtudier la stabilit dun modle conomtrique estim au cours du temps.
Il existe deux versions de ce test : le CU SUM fond sur la somme cumule des rsidus rcursifs, et le C USU M SQ
(SQ pour square ) fond sur la somme cumule des carrs des rsidus rrursifs. Pour cela, on note (e"t) le rsidu
normalis par rapport lcart-type, cest dire e"t = b
" t=b
" , et on note k le nombre de paramtres estimer dans le
modles. Les statistiques St du CU SU M et St0 du CU SU M SQ sont dnies par
Pt

et

"i
i=k+1 e
2
"i
i=k+1 e

St = (T k) Pt
St0

Pt

i=k+1
PT
i=k+1

"e2i
"e2i

pour t = k + 1; :::; T ;

pour t = k + 1; :::; T:

Si les coecients sont variables au cours du temps, alors les rsidus rcursifs St doivent rester dans lintervalle dni
par

(2t + T 3k)
(2t + T 3k)
St 2
p
;+
p
;
Tk
Tk
o = 1:143; 0:918 ou 0:850 suivant que le seuil est 1%; 5% ou 10%. De la mme faon, les rsidus St0 doivent
appartenir lintervalle

tT
tT
0
St 2
C;
+C ;
Tk
Tk

o C est la constante du Durbin. En fait, on peut montrer que sous lhypothse de stabilit, lesprance de St0 est
E (St0 ) = (t T ) = (T k) allant de 0 1 quand t varie entre k et T . Plus prcisment, la variable St0 suit une loi Bta.
Le test de Chow ou test dhomoscdasticit Puisque les bruits blancs doivent tre homoscdastiques, le test
de Chow, visant comparer les variances des rsidus sur des sous-priodes, peuvent tre utiliss2 2 .
2 1 Ce

test est voqu ici car il existe des codes tlchargeables sur internet, en EV iews, SAS ou Gauss.
test nest pas dtaill ici puisquil se trouve dans tous les cours dconomtrie. Pour mmoire, ce test est un test de Fisher : on
considre un premier modle Y = X m + " m obtenu sur m observations, et un second modle Y = X n + "n obtenu sur n observations.
Le test de Chow permet de test lgalit de s coecient : m = n , ainsi que V ("m ) = V ("n ) :
2 2 Ce

133

Sries temporelles : thorie et applications

7.4

Arthur CHARPENTIER

Estimation des paramtres dun modle ARM A (p; q)

A cette tape, les coecients d; p et q ont t xs. Il convient alors destimer les paramtres

i et j du processus
ARIM A (p; d; q), ainsi que la volatilit 2 du bruit blanc. Sous lhypothse "t s N 0; 2 , on peut utiliser des
mthodes du type maximum de vraissemblance. On supposera ici que le processus (Xt) est centr.
7.4.1

Estimation pour les modles AR (p) par la m thode des moindres carrs

Un modle AR (p) scrit


Xt

=
=

c + 1 Xt1 + ::: + p Xtp + "t o (" t) est un bruit blanc,

Zt0 + "t o Zt0 = (1; Xt1 ; Xt2 ; :::; Xt p ) et 0 = c; 1 ; 2 ; :::; p :

Lestimation des paramtres du modle X = Z 0 + " par la mthode des moindres carrs donne
2
X
1
1
b
= (ZZ 0 ) ZX et b 2 =
Xt Zt0b :
T (p + 1)

Toutefois, les rsultats usuels dconomtries ne sont pas vris ici, en particulier E b
6= . Il est toutefois possible
de montrer le rsultat suivant,
Proprit 52 Si les racines du polynme charactrisque (racines de (z) = 0) sont lextrieur du disque unit
alors
P
P
b ! et b
2 ! 2 ;
et de plus

1
L
T b
! N 0; 2 V o V = p lim
ZZ 0 :
T !1 T

Remarque 54 Si la mthode des moindres carrs peut tre utilise pour estimer les paramtres dun modle AR (p),
elle ne marche plus ds lors que lon a des termes autorgressifs sur les rsidus.
7.4.2

Vraissemblance dun processus ARM A (p; q)

Pour dterminer la vraissemblance, il est ncessaire de supposer connue la loi des erreurs : nous supposerons les
erreurs normalement distribues. Les erreurs tant normalement distribues et indpendantes (le processus ("t ) est,
par hypothse un bruit blanc), le vecteur (" 1 ; :::; " n ) est un vecteur gaussien. Les composantes du vecteur (X1 ; :::; Xn )
tant obtenues par combinaisons linaires des composantes du vecteur ("1 ; :::; "n ), (X1 ; :::; Xn ) sera un vecteur gaussien
:

1
1
1
0 1
L X = (X1 ; :::; Xn )0 ; ; ; 2 =
exp

X
X
;
2 2
(2 2 )n=2 [det -]1=2

o 2- est la matrice (n n) des covariances du vecteur X = (X1 ; :::; Xn )0 .


La maximisation, et mme le calcul de cette vraissemblance taient relativement dicile il y a quelques annes, en
particulier cause du calcul de linverse -1 , et du dterminant, de -, surtout lorsque n devenait relativement grand.
Newbold a propos une autre expression de cette vraissemblance, plus facile calculer. Soit H la matrice triangulaire
infrieure, lments positifs sur la diagonale telle que HH 0 = - (dcomposition de Cholesky). Soit alors e le vecteur
tel que e = H 1 X. La log-vraissemblance du modle scrit alors
1
1
1
log 2 log jdet -j
X 0- 1 X;
2
2
2 2

n
n
1=n 0
1=n
=
log (e0 e) log jdet Hj = log jdet Hj
e e jdet H j
:
2
2

La mthode du maximum de vraissemlance revient alors chercher le minimum de ` = jdet Hj1=n e0 e jdet Hj1=n :
log L

n
log 2
2
n
log 2
2

Une autre criture, relativement proche est possible dans le cas des processus M A (q). Soit " le vecteur dinnitialisation
des erreurs,
0
" = ("1 q; :::; " 1 ; "0 ) ;
0

permettant dengendrer la srie x 1; :::; x n : Considrons alors les vecteurs " = (" 1q ; :::; "1 ; " 0; " 1 ; :::; " n ) et X. On
peut alors crire
" = N X + M ";
134

Sries temporelles : thorie et applications

Arthur CHARPENTIER

o M est une matrice (n + q) q et N (n + q) n. Linitialisation des erreurs sestimant par b" = (M 0M )


et en notant
0

S () = (N X + M b" ) (N X + Mb" ) ;

M 0N X,

on peut alors montrer que la log-vraissemblance peut scrire

n
n
1
S ()
log L = log 2 log 2 log (det (M 0 M ))
:
2
2
2
2 2
Et nallement, puisquon peut crire 2 = S () =n, la fonction minimiser scrit
` = n log S () + log (det (M 0 M )) :
Exemple 84 Dans
le cas dun modle AR (1), de la forme Xt = c + Xt1 + "t o "t est i:i:d: et distribu suivant

une loi N 0; 2 , avec jj < 1, alors

Xt jXt 1 s N c + Xt 1 ; 2 :
Aussi, la loi conditionnelle de Xt est donne par

cest dire que

1
1
f x t jx t1 ; c; ; 2 = p
exp 2 (xt c x t1 )2 ;
2
2 2
Xt s N (E (Xt ) ; V (Xt)) soit Xt s N

c
2
;
1 1 2

En posant = c; ; 2 , la vraissemblance conditionelle du modle est alors donne par


L ( jX1 ; :::; XT ) =
log L ( jX1 ; :::; XT ) =
La vraissemblance marginale scrivant
L (; X1 ) =

T
Y

t= 2

1
2
exp 2 (Xt c Xt1 ) ;
2
2 2
1

T
T1
T 1
1 X
ln (2)
ln 2 + 2
(Xt c Xt1 )2 :
2
2
2
t=2

"

2 #
1 2
1 2
c
exp
X1
;
2 2
2 2
1

on en dduit la forme de la log-vraissemblance (exacte, et non plus conditionelle),


2
1 2
1
1
2
c
log L (; X1 ; :::; XT ) = ln (2) ln

X1
2
2
2 2
1
1 2

T
T 1
T 1 2
1 X
ln (2)
ln
(Xt c Xt1 ) 2 :
2
2
2 2
t=2

On peut noter que la maximisation de la vraissemblance exacte est un problme doptimisation non-linaire.
7.4.3

Rsolution du programme doptimisation

Une fois crite la vraissemblance, deux mthodes sont alors possibles


(1) des mthodes exactes, visant mininimiser eectivement la log-vraissemblance log L, de faon numrique
(2) des mthodes de type moindres carrs, visant minimiser la fonction S () dans le cas M A, le second terme
dans log L n devenant ngligeable quand n augmente (mthode utilise sous EViews).
Pour les modles ARM A stationnaires, les mthodes de maximisation de la vraissemblance conditionnelle, et de
maximisation de la vraissemblance (exacte), sont asymptotiquement quivalentes. Lexplication heuristique est que
pour les modles stationnaires, leet des valeurs initiales devient asymptotiquement ngligeable, alors que dans le cas
o des racines du polynme charactristique sont sur le cercle unit, les valeurs initiales inuencent les chantillons
nis.

135

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Critre des moindres carrs conditionnel (M CC )


Exemple 85 Considrons ici un modle de la forme M A (1), Xt = "t "t 1 : Cette quation peut scrire "t =
x t + "t 1 , et donc, en supposant "0 = 0,
"t =

t1
X
i=0

i xti ; pour t 2;

(35)

et donc, la somme des carrs, conditionnelle "0 = 0 scrit


S (j" 0 = 0) =

T
X

"2t

t=1

" t1
T
X
X
t=1

xt i

i=0

#2

Lquation permettant destimer nest pas linaire.


Dans le cas gnral, pour un processus ARM A (p; q), on suppose que x1 = ::: = x p sont xs et connus, et que
"p = "p+1 = :::"p+q = 0. Alors, par rcurence
"t = x t

p
X

i xti +

i=1

q
X

j "tj :

j= 1

La somme des carrs conditionnelle aux valeurs initiales scrit


2
32
T
T
p
q
X
X
X
X
4x t
S (j" 0 = 0) =
"2t =
i xti +
j "tj 5 ;
t=1

t=1

i=1

j= 1

o les "tj peuvent tre crits en fonction des x tj ; :::; xt jp et des "tj 1 ; :::; "tq .
Critre des moindres carrs non conditionnel (M C N )

Exemple 86 Considrons ici un modle de la forme M A (1), Xt = "t "t 1; que lon notera, en considrant les
innovations en temps invers "t , Xt = "t " t+1 : On supposant " T +1 = 0, on dtermine rcurviement "T = x T ,"T 1 =
x T + "T ...etc. De faon rtrospective, on peut ainsi dir b
x0 = "1 : De faon anologue (35), on peut crire
xb0 =

T
X

t xT :

t=1

En posant alors "0 = b


x0 , on peut obtenir les "t en utilisant (35). On obtient alors une expression (non conditionelle)
de la somme des carrs des rsidus
" t1
#2
T
T
T
X
X
X
X
2
i
t
i
S () =
"t ==
xti
xi :
t=1

t=1

i=0

i= 1

L encore, lquation permettant destimer nest pas linaire.


Un des problmes de cette mthode est que, dans le cas de processus comprenant une part autorgressive, les
valeurs initiales doivent tre obtenues, thoriquement, en 1. Ceci impose de faire une approximantion sur la base
dun critre darrt portant sur la convergence numrique de la rcurrence.
Critre du maximum de vraissemblance conditionelle (M V ) Pour utiliser la mthode du maximumum de
vraissemblance,
il est ncessaire de faire des hypothses sur la loi des "t : ce sont des variables indpendantes, et de
mme loi N 0; 2 . La vraissemblance conditionnelle est obtenue de la faon suivante :
0
La densit de " = ("1 ; :::; "T ) est donne par

!
T
1
1 X 2
f ("1 ; :::; "T ) =
exp 2
" :
T =2
2 t=1 t
(2 2 )
On supposera connues les valeurs initiales x et " . La densit de x peut sexprimer conditionellement " et x :
136

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Programme doptimisation Nous allons ici nous limiter un cas simple, dun modle M A (1), avec un critre de
type M C C. On part dune valeur initiale 0 , et on va mettre en place un algorithme convergent vers la vraie valeur
. A la i + 1-me tape, on estime i+1 en fonction de i en utilisant

@S ()
S ( i+ 1 ) = S (i ) + [i+1 i ] g ( ) o g ( ) =
;
@ =
o est compris entre i et i+1 . Aussi, on minimise la fonction S () en choisant i+1 de telle sorte que i soit de
signe oppos au gradient de S () en . Mais comme est inconnu, on choisit
i+1 = i g (i ) avec > 0
et ainsi, S ( i+1 ) < S (i ). Le gradient, sil est dicile valuer peut tre remplac par une dirence de la forme
[S ( i + ) S ( i)] = avec petit. Ces deux constantes et , propres lalgorithme, peuvent tre xe initialement,
par exemple = 0:001 et = 0:01.
Exemple 87 Considrons un cas relativement simple avec 6 observations (5; 6; 3; 2; 7; 6), et cherchons tel que Xt =
"t + "t1 :
(i)
(i)
(i)
0 = 0 et 0 + = 0:01. Alors S ( 0 ) = 52 + 6 2 + ::: + 7 2 + 6 2 = 159. Alors X1 = 5, X2 = X2 + ( 0 + ) X1 =
(i)
(i)
6 + 5 0:01 = 6:05, X3 = X3 + ( 0 + ) X2 = 3 + 6:05 0:01 = 3:06, :::etc. Do la somme S ( 0 + ) = 161:225.
Aussi, on obtient g (0 ) = 222:458 do nallement 1 = 0:222.
Cet algorithme se rpte ltape suivante, et les rsultats sont alors
itration i
0
1
2
3
4
5
6

i
i +
i
i +
i
i +
i
i
i
i
i
i
i
i

i
0:000
0:010
0:222
0:212
0:524
0:514
0:706
0:696
0:821
0:811
0:880
0:870
0:900
0:890

1
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000
5:000

2
6:000
6:050
4:888
4:988
3:378
3:478
2:472
2:572
1:896
1:996
1:600
1:700
1:501
1:601

3
3:000
3:061
1:913
2:001
1:229
1:271
1:256
1:271
1:444
1:442
1:592
1:582
1:649
1:636

4
2:000
2:031
1:575
1:606
1:356
1:377
1:114
1:146
0:815
0:861
0:599
0:654
0:516
0:575

5
7:000
7:020
6:650
6:679
6:289
6:312
6:214
6:223
6:331
6:322
6:473
6:451
6:536
6:509

6
6:000
6:070
4:521
4:651
2:702
2:823
1:616
1:742
0:804
0:945
0:303
0:457
0:119
0:279

S (i )
159:00
161:22
119:68
122:70
86:61
88:42
75:16
76:31
72:07
72:66
72:44
72:64
72:97
73:01

g ( i)
222:46

i+1
0:222

302:02

0:524

181:06

0:706

115:23

0:821

59:32

0:880

19:73

0:900

4:01

0:905

En allant jusqu ltape 10, on obtient = 0:905.


Dans le cas des modles moyennes mobiles (M A), lalgorithme du ltre de Kalman peut tre utilis, en considrant
que "t (ou "t 1) est inobservable. La mthode destimation
est alors la suivante : (Yt ) suit un modle de la forme

Y t = + "t + "t1 o "t est i:i:d: et suit une loi N 0; 2 , avec jj < 1. La fonction de vraissemblance conditionnelle

est Yt j"t1 s N + "t 1 ; 2 et

1
1
2
2
f yt j"t1 ; ; ; = p
exp [Y t "t1 ]
2
2 2
Le problme est que "t1 est inobservable. Le raisonnement
est alors le suivant :

- on suppose que "0 = 0, alors Y 1 j"0 s N ; 2


- Y1 = + " 1 + " 0 = + " 1 donc "1 = Y1
- Y2 = + " 2 + " 1 donc "2 = Y2 (Y1 )
- ...
- Yt = + "t + "t1 et donc
t1

"t = (Yt ) (Yt 1 ) + ::: + ()

(Y 1 )

(36)

(on peut reconnatre la version tronque de la reprsentation AR (1) du processus M A (1)) La log vraissemblance
conditionelle est
T
T
T
1 X 2
ln (2) ln 2 2
" o " t est donne par (36)
2
2
2 t=1 t
137

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Complments : introduction au ltre de Kalman Un modle espace-tat est dni par le systme dquation

Zt+1 = At Zt + "t : quation dtat


0
o ("t; t ) est un bruit blanc normal
Y t = C tZ t + t : quation de mesure
o At et C t sont dterministes, o Z0 s N (m; p) est indpendant des (" t; t )0 . Les variables peuvent ici tre de
dimension suprieure 1. La matrice de variance-covariance

"t
V ("t )
cov ("t; t )
V
=-=
t
cov ("t ; t )
V ( t)
On dira alors

8
>
(Zt ) : tat du systme la date t : inobservable
>
>
>
(Y t ) : observations du systme la date t : observable
>
>
>
>
< (" t) : innovations du systme la date t : inobservable
( t ) : erreurs de mesure (ou bruit ) en t : inobservable
>
>
(At ) : matrice de transition
>
>
>
>
(C t ) : matrice de mesure
>
>
:
(C t Zt) : signal la date t

bt = E (Zt jY 0 ; :::; Y t ) la prvision de Zt : On notera


Le ltre de Kalman permet de calculer t Z
8

0
>
b
b
>

=
E
Z

Z
Z

Z
: erreur quadratique du ltre sur Zt en t
>
t t
t
t t
t
t t
>
<
b
t1 Zt = E (Z
tjY 0 ; :::; Yt1 ) : prvisionde
Zt faite en t 1
>
>
0
>
>
: t1 t = E Zt t1 Zbt Zt t1 Zbt
: erreur quadratique moyenne de prvision

Dans le cas o cov ("t ; t) = 0, alors, pour tout t 0, le ltre de covariance,


h
i
(
0
bt = t1 Z
bt + Kt Y t Ct :t1 Z
bt
(a) t Z
(a ) t t = [I Kt Ct ]t1 t
et
(b 0) t t+1 = At :t t :A0t + Q
b
b
(b) t Zt+1 = At:t Zt
1

K t =t 1 t :C t0 (Ct :t1 t:C 0t + R)

: matrice de gain du ltre la date t

On peut alors en dduire directement


les formules
de calcul de prvisions de la variable observe : soit

b
E (Y t jY 0 ; :::; Y t1 ) et t1 Mt = V Y t t1 Y t alors
(c)
(c0 )

b =

t1 Y t

b
= Ct+1 :tZbt+1
0
M
t
t+1 = Ct+1 : t t+1 :C t+1 + R
t Y t+1

Dans le cas dit stationnaire, cest dire quand At = A et C t = C alors le modle se rcrit

Z t+1 = AZt + " t


Y t = CZt + t
b0 = E (Z0 ) = m et 1 0 = V (Z0 ) = P . De faon
Le ltre doit tre initialis, et on prend gnralement 1 Z
bt laide de (a) et (a0 ) ; puis t t et t Y
bt+1 laide de (b) et (b 0 ), ainsi que de (c)
rcursive, on peut alors calculer les t Z
et (c0 ).

Remarque 55 Dans le cas o les bruits sont corrls, des mthodes similaires peuvent tre utilises, en introduisant
le rsidu de la rgression de ("t ) sur ( t ).
Pour une prvision lordre h, on introduit une seconde itration : on cherche
8

(
< tM t+ h = V t Y
bt+ h Yt+ h
b
Y
=
E
(Y
jY
;
:::;
Y
)
t t+ h
t+h 0
t

et
b
:
t Zt+h = E (Zt+h jY0 ; :::; Y t )
= V Zb
Z
t

138

t+h

t+ h

t+h

Sries temporelles : thorie et applications

Arthur CHARPENTIER

(pour h = 1 on retrouve le ltre de covariance ). Dans le cas o cov ("t ; t) = 0, on a les formules de rcurrence
(

0
b
b
t Yt+ h = C t+h :t Zt+h
t M t+h = Ct+h : t t+h :Ct+ h + R
et
b
b
t t+h = At+h +1 : t t+h1 :At+h 1 + Q
t Zt+h = At+ h1 : tZt +h1
La procdure itratif prend alors la forme suivante :
b0 = E (Z0 ) = m et 1 0 = V (Z0 ) = P
(i) initialisation : t = 0, h = 1, on pose 1 Z
(ii) formules (a) et (a0)
(iii) formules (b) et (b0 ), et (c) et (c0 )
(iv) si h < H (horizon de prvision ), alors h = h + 1 et (iii) ; sinon (v)
(v) si t < T alors t = t + 1 et h = 1, observation de Y t+1 , et (ii), sinon n

1 b
bt =t
b
Remarque 56 De faon analogue, on peut utiliser le ltre dinformation, bas sur t U
t :t Zt et t Ut+1 = t
1
t+1 :t Zbt+1 , et on alors les relations

()
()

b =t 1 U
bt + C 0 R1 Y t
t
01 b
b
: t Ut
t Ut+1 = [I M t] A
t Ut

et

1
1
1
o M t = N t Nt + Q 1
et N t = A0
:t 1
t
t :At .
7.4.4

0
(0 )

1
1
= t1
+ Ct0 R1 C t
t t
t
1
t t+ 1 = [I M t ] N t

Tests statistiques de validation du modle

Aprs avoir estim les paramtres p et q dun modle ARM A, il convient de vrier que les polynmes AR et M A
ne possdent pas de racine commune. Lorsque cest le cas, il y a redondance, ce qui peut conduire des erreurs lors
des prvisions. Il convient alors destimer les paramtres processus ARM A avec moins de retards (ou dautres types
de retards).
Comme lors dune regression linaire, un certain nombre dindicateurs sont intressants. Par exemple le test de
Student des paramtres permet de vrier que les paramtres sont bien signicatifs.
Il convient ensuite de vrier que le processus "t est eectivement
un bruit blanc. Par exemple, pour vrier que
p
la moyenne est nulle, on compare la moyenne " t=2 b
= n p q dans le cas dun processus p + q. Pour tester
labsence dautocorrlation de "t , il est possible dutiliser la statistique de Box & Pierce (Q) ou la statistique de Ljung
& Box (Q 0) dnies par
k
k
X
X
r2i
Q (k) = n
r2i et Q0 (k) = n (n + 2)
;
ni
i=1
i=1
qui sont comparer aux quantiles du chi-deux k (p + q) degrs de libert (lhypothse H0 teste tant (1) = ::: =
(h) = 0).

7.5
7.5.1

Choix dun modle


Critre de pouvoir prdicitf

Comme nous le verrons par la suite, dans un modle ARM A, lerreur de prvision horizon 1 dpend de la variance
du rsidu. On peut alors choisir le modle conduisant la plus petite erreur de prvision. Plusieurs indicateurs sont
alors possibles :
(i) la variance du rsidu 2, ou la somme des carrs des rsidus SCR
(ii) le coecient de dtermination R2 , correspondant une normalisation de la variance
2
(iii) le coevient de dtermination modi R
(iv) la statistique de Fisher (comme dans le cas du modle linaire)
Le but est alors de minimiser (i), ou de maximiser (ii) ; (iii) ou (iv).
Exemple 88 Dans lexemple ci-dessous, considrons les 2 modles suivants : un modle ARM A (1; 1) gauche, ou

139

Sries temporelles : thorie et applications

Arthur CHARPENTIER

un modle AR (4), droite


LS // Dependent Variable is X
Sample: 2 5000
Included observations: 4999 after adjusting endpoints
Convergence achieved after 4 iterations

LS // Dependent Variable is X
Sample: 5 5000
Included observations: 4996 after adjusting endpoints
Convergence achieved after 2 iterations

Variable

Coefficient

Std. Error

T-Statistic

Prob.

Variable

Coefficient

Std. Error

T-Statistic

Prob.

AR(1)
MA(1)

0.767134
-0.463423

0.019055
0.026398

40.25967
-17.55536

0.0000
0.0000

AR(1)
AR(2)
AR(3)
AR(4)

0.302722
0.143773
0.066880
0.041655

0.014141
0.014739
0.014740
0.014135

21.40765
9.754472
4.537428
2.946946

0.0000
0.0000
0.0000
0.0032

R -squared
0.183040
Adjusted R-squared 0.182877
S.E. of regression 1.008651
Sum squared resid 5083.836
Log likelihood
-7135.336
Durbin -Watson stat 2.002189
Inverted AR Roots
Inverted MA Roots

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

0.014388
1.115828
0.017628
0.020236
1119.579
0.000000

R -squared
0.183303
Adjusted R-squared 0.182812
S.E. of regression 1.008569
Sum squared resid 5077.916
Log likelihood
-7129.642
Durbin -Watson stat 1.999789

.77
.46

Inverted AR Roots

soit

8
< [1] : Xt = 0:767 Xt1 + "t 0:463 " t1
(0:019)

.73

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)
-.02+.39i -.02 -.39i

0.014946
1.115693
0.017865
0.023082
373.4759
0.000000
-.38

(0:026)

: [2] : Xt = 0:303 Xt1 + 0:226 Xt 1 +0:162 Xt1 + 0:116 Xt 1


(0:014)

(0:014)

(0:014)

(0:014)

Nous obtenons les indicateurs suivants

[1]
[2]

2
R2
1:01737 0:18304
1:02751 0:17505

R
0:18287
0:17455

F -stat
1119:579
353:3722

Le modle [1] semble meil leur que le modle [2] : la variance du rsidu est plus faible, mais de plus, les trois autres
indicateurs sont plus levs dans le premier cas que dans le second.
7.5.2

Critre dinformation

Cette approche a t introduite par Akake en 1969. Cette mesure de lcart entre le modle propos et la vraie loie
peut tre obtenue laide de la quantit dinformation de Kullback.
Dnition 46 Soit f 0 la densit inconnue dobservations, et ff (:) ; f 2 F g la famille des densits parmi lesquelles
ont fait lestimation. Lcart entre la vraie loi et le modle est donn par
Z
f 0 (x)
I (f 0 ; F) = min log
:f 0 (x) dx
f 2F
f (x)
Cette quantit est toujours positive, et ne sannule que si f0 appartient F . Cette mesure tant inconnue puisque
b Plusieurs estimateur de la quantit dinformation ont
f 0 est inconnue, on essaiera de minimiser un estimateur de I, I.
t propos, dans le cas de modles ARM A (p; q), partir de T observations,
(i) Aikake (1969) :
p+q
2
AIC (p; q) = log b + 2
T
(ii) Schwarz (1977) :
log T
BIC (p; q) = log b
2 + [p + q]
T
(iii) Hanna-Quinn (1979) :
(p; q) = log b2 + [p + q] c

log (log T )
avec c > 2
T

Exemple 89 En reprenant lexemple prcdant un critre dAkake (AIC sous EViews) de 0:017628 pour le modle
ARM A (1; 1) contre 0:027968 pour le modle AR (4) : Ici encore, le modle ARM A est prfr au modle AR.

7.6

Application

Nous allons essayer ici de modliser la srie mensuelle du nombre de voyageurs SNCF.
140

Sries temporelles : thorie et applications

7.6.1

Arthur CHARPENTIER

Identication du modle : recherche des paramtres d, p et q

La srie, compose de 204 observations peut tre reprsente par


4000
3500

3000
2500
2000
1500

20

40

60

80

100 120 140 160 180 200


SNCF

Compte tenu de la signicativit des premires autocorrlations (ou tout du moins le fait quelles sont signicativement
non-nulles pour les 40 premiers retards) suggre de direncier au moins un fois la srie,
1000

500

-500

-1000
20

40

60

80

100 120 140 160 180 200


D_SNCF

La srie Y t = (1 L) Xt prsente alors de fortes corrlations pour les retards multiples de 12 (nous retrouvons ici la
saisonnalit annuelle longuement dveloppe dans les premires parties )
600
400
200
0
-200
-400
-600
-800
20

40

60

80 100 120 140 160 180 200


Z

La srie Zt = 1 L12 Yt = (1 L) 1 L12 Xt semble cette fois-ci stationnaire. Nanmois,


de fortes
la prsence

12
valeurs pour (1) et (12) suggre dintroduire une moyenne mobile de la forme (1 1 L) 1 2 L . Ce type de
reprsentation est conrm par la forme de lautocorrlogramme partiel : une modlisation de type AR ncessiterait
dintroduire un trop grand nombre de termes (les 5 premires valeurs de lautocorrlogramme
partiel tant signica
tivement non-nulles). De plus, la moyenne mobile (L) = (1 1 L) 1 2 L12 scrit
(L) "t = "t 1 "t 1 2 "t12 + 1 2 "t13

admettant des autocorrlations (h) non nulles pour h = 1; 11; 12; 13 (ce qui est conrm par le graphique des autocorrlations).
141

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Enn, lhypothse de processus centr (ne ncessitant pas dintroduire - a priori - de constance ou de tendance
linaire) semble galement valide. En eet, lamoyenne des Zt vaut 0:157, avec un cart-type empirique valant 169:
Sous SAS, ltude de la srie Zt = (1 L) 1 L12 Xt est la suivante :
ARIMA P r o c e d u r e

Partial

Name o f v a r i a b l e = Z .
Mean o f w o r k i n g s e r i e s = - 0 . 1 5 7 0 7
Standard deviation
= 168.8279
Number o f o b s e r v a t i o n s =
191
Autocorrelations
Lag Covariance C o r r e l a t i o n
0 28502.844
1.00000
1 -11527.504
-0.40443
2 -1271.936
-0.04462
3 -3278.476
-0.11502
4
1546.474
0.05426
5
262.944
0.00923
6
3733.456
0.13099
7 -4948.216
-0.17360
8
-130.960
-0.00459
9
1868.662
0.06556
10
294.871
0.01035
11
5193.622
0.18221
12 -11223.638
-0.39377
13
5065.270
0.17771
14
240.957
0.00845
15
-734.637
-0.02577
16
1448.290
0.05081
17
2045.000
0.07175
18 -5334.294
-0.18715
19
3949.733
0.13857
20 -2654.638
-0.09314
21
2322.265
0.08147
22
294.898
0.01035
23 -3150.481
-0.11053
24
725.116
0.02544

-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
|
|********************|
|
********|
.
|
|
. *|
.
|
|
.**|
.
|
|
.
|* .
|
|
. | .
|
|
.
|***
|
|
***|
.
|
|
. | .
|
|
.
|* .
|
|
.
|
.
|
|
.
|****
|
|
********|
.
|
|
.
|****
|
|
.
|
.
|
|
. *|
.
|
|
.
|* .
|
|
.
|* .
|
|
****|
.
|
|
.
|***.
|
|
. **|
.
|
|
.
|** .
|
|
.
|
.
|
|
. **|
.
|
|
.
|* .
|
" . " m a r k s two s t a n d a r d e r r o r s

Autocorrelations

L a g C o r r e l a t i o n -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1
-0.40443 |
********|
.
|
2
-0.24890 |
*****|
.
|
3
-0.30362 |
******|
.
|
4
-0.21520 |
****|
.
|
5
-0.17387 |
***|
.
|
6
0.03620 |
.
|* .
|
7
-0.12206 |
.**|
.
|
8
-0.15158 |
***|
.
|
9
-0.04777 |
. *|
.
|
10
-0.05286 |
. *|
.
|
11
0.25287 |
.
|*****
|
12
-0.24737 |
*****|
.
|
13
-0.04140 |
. *|
.
|
14
-0.02084 |
. | .
|
15
-0.19385 |
****|
.
|
16
-0.03095 |
. *|
.
|
17
0.06008 |
.
|* .
|
18
-0.02038 |
. | .
|
19
0.01299 |
. | .
|
20
-0.13278 |
***|
.
|
21
0.05178 |
.
|* .
|
22
0.03507 |
.
|* .
|
23
-0.02833 |
. *|
.
|
24
-0.13250 |
***|
.
|

Std
0
0.072357
0.083357
0.083482
0.084307
0.084490
0.084495
0.085552
0.087377
0.087378
0.087635
0.087642
0.089603
0.098246
0.099915
0.099919
0.099954
0.100089
0.100358
0.102169
0.103148
0.103587
0.103922
0.103928
0.104541

A u t o c o r r e l a t i o n Check for W h i t e N o i s e
To
Lag
6
12
18
24

Chi
Square DF
Prob
38.73 6 0.000 -0.404
84.40 12 0.000 -0.174
100.19 18 0.000 0.178
110.46 24 0.000 0.139

Autocorrelations
-0.045 -0.115
-0.005 0.066
0.008 -0.026
-0.093 0.081

0.054 0.009 0.131


0.010 0.182 -0.394
0.051 0.072 -0.187
0.010 -0.111 0.025

Inverse Autocorrelations
Lag Correlation
1
0.73489
2
0.63096
3
0.56496
4
0.46772
5
0.41320
6
0.32447
7
0.35323
8
0.32481
9
0.26680
10
0.27313
11
0.27810
12
0.33334
13
0.19712
14
0.16505
15
0.16600
16
0.10828
17
0.09897
18
0.10339
19
0.10580
20
0.10422
21
0.06369
22
0.06875
23
0.06838
24
0.04596

Squared Canonical Correlation Estimates

-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
|
.
|***************
|
|
.
|*************
|
|
.
|***********
|
|
.
|*********
|
|
.
|********
|
|
.
|******
|
|
.
|*******
|
|
.
|******
|
|
.
|*****
|
|
.
|*****
|
|
.
|******
|
|
.
|*******
|
|
.
|****
|
|
.
|***
|
|
.
|***
|
|
.
|**.
|
|
.
|**.
|
|
.
|**.
|
|
.
|**.
|
|
.
|**.
|
|
.
|* .
|
|
.
|* .
|
|
.
|* .
|
|
.
|* .
|

Lags
AR
AR
AR
AR
AR
AR

0
1
2
3
4
5

MA 0

MA 1

MA 2

MA 3

MA 4

0.1652
0.0641
0.0918
0.0489
0.0335
0.0008

0.0020
0.0092
0.0081
0.0001
0.0160
0.0167

0.0136
0.0106
0.0057
0.0058
0.0075
0.0282

0.0031
0.0015
0.0111
0.0135
0.0282
0.0165

0.0001
0.0020
0.0172
0.0083
0.0046
0.0073

SCAN Chi-Square[1]
Lags
AR
AR
AR
AR
AR
AR

0
1
2
3
4
5

MA 5
0.0180
0.0145
0.0276
0.0041
0.0001
0.0015

P r o b a b i l i t y Values

MA 0

MA 1

MA 2

MA 3

MA 4

0.0001
0.0004
0.0001
0.0022
0.0116
0.6949

0.5912
0.2884
0.3162
0.9271
0.1357
0.1124

0.1640
0.2934
0.3870
0.4653
0.2897
0.1028

0.5150
0.6334
0.3337
0.1913
0.1560
0.1577

0.9120
0.6320
0.1404
0.3314
0.4376
0.3767

MA 5
0.1168
0.1781
0.1356
0.4683
0.9981
0.6829

Nous retrouvons lautocorrlogramme et lautocorrlogramme partiel tel que nous lavions obtenu sous E V iews. SAS
fournit galement les autocorrlations inverse de Zt .
La sortie de la procdure ESAC F est la suivante
Extended Sample Autocorrelation Function
Lags

MA 0

AR
AR
AR
AR
AR
AR

-0.4044
-0.4658
-0.5064
-0.4882
-0.4944
0.1513

0
1
2
3
4
5

MA 1

MA 2

MA 3

MA 4

-0.0446
0.1111
-0.5251
-0.0734
-0.0310
-0.2850

-0.1150
-0.1610
-0.2854
0.1699
0.1540
-0.2818

0.0543
0.0659
0.0290
-0.2394
-0.3410
-0.4169

0.0092
-0.0008
0.0358
-0.0683
-0.3258
-0.3271

MA 5
0.1310
0.0831
0.1000
0.0560
-0.0023
-0.0197

ESACF Probability Values


Lags

MA 0

MA 1

MA 2

MA 3

AR
AR
AR
AR
AR
AR

0.0001
0.0001
0.0001
0.0001
0.0001
0.0391

0.5924
0.2338
0.0001
0.3873
0.7201
0.0001

0.1683
0.0471
0.0002
0.0558
0.0791
0.0001

0.5199
0.4580
0.7209
0.0089
0.0001
0.0001

0
1
2
3
4
5

MA 4
0.9131
0.9924
0.6767
0.4434
0.0011
0.0010

MA 5
0.1211
0.3614
0.2676
0.5225
0.9823
0.8555

ARMA(p+d,q) Tentative Order Selection T e s t s


(5% Significance Level )
SCAN p+d
0
5

7.6.2

q
1
0

ESACF p+d
0
2
5

q
2
3
5

Estimation du modle ARIM A

Le modle retenu est un modle ARIM A; ou SARIM A, de la forme

(1 L) 1 L12 Xt = (1 1 L) 1 2 L12 " t o E (" t) = 0 et V ("t ) = 2

142

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Les trois paramtres estimer sont 1 ; 2 et 2 . Une mtho de base sur les moindres carrs permet destimer les 3
paramtres de " t " t1 "t 12 + " t13 :
Conditional Least

LS // Dependent Variable is Z
Sample: 14 204
Included observations: 191 after adjusting endpoints
Convergence achieved after 8 iterations

Parameter
MA1,1
MA2,1

Variable

Coefficient

Std. Error

T-Statistic

Prob.

MA(1)
MA(12)
MA(13)

-0.768737
-0.475989
0.415363

0.046718
0.062662
0.060472

-16.45476
-7.596094
6.868676

0.0000
0.0000
0.0000

R-squared
0.471378
Adjusted R-squared 0.465755
S.E. of regression 123.7241
Sum squared resid 2877839.
Log likelihood
-1189.754
Durbin-Watson stat 1.792060
Inverted M A Roots

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

Estimate
0.83438
0.49261

Squares Estimation
Approx.
Std Error
0.04023
0.06872

T Ratio Lag
20.74
1
7.17 12

V a r i a n c e E s t i m a t e = 15407.0492
S t d E r r o r E s t i m a t e = 124.125135
AIC
= 2385.75684*
SBC
= 2392.26138*
Number o f R e s i d u a l s=
191
* Does not include log determinant .
Correlations of the Estimates

-0.157068
169.2716
9.651690
9.702773
83.82096
0.000000

Parameter

MA1,1

MA1,1
MA2,1

1.000
-0.030

MA2,1
-0.030
1.000

A u t o c o r r e l a t i o n Check of R e s i d u a l s
To
Lag
6
12
18
24
30
36

.88 -.06i .88+.06i .81+.48i .81 -.48i


.46 -.82i .46+.82i -.00+.94i -.00 -.94i
-.47+.82i -.47 -.82i -.82 -.47i -.82+.47i
-.94

Chi
Square DF
7.49 4
13.95 10
19.61 16
22.54 22
26.98 28
34.07 34

Autocorrelations
Prob
0.112 0.148
0.175 -0.157
0.238 0.075
0.428 -0.040
0.520 0.088
0.465 0.031

-0.036
-0.062
0.054
-0.085
0.033
-0.004

-0.118 0.022 -0.017 0.024


0.029 0.039 0.022 -0.029
-0.005 0.042 -0.003 -0.128
-0.022 -0.049 -0.023 0.035
0.023 -0.037 0.006 0.094
-0.074 -0.006 0.150 0.034

Toutefois, cette estimation ( gauche, sous EViews ) ne permet pas dintgrer la contrainte = .
prcdure ARIMA sous SAS permet de prendre en compte ce genre de modle ( droite).

Toutefois, la

Remarque 57 La procdure ARIMA intgre une dclaration ESTIMATE permattant destimer des paramtres dun modles ARIM A (p; d; q). Parmi les options de cette dclaration, il est possible de choisir les options suivantes, P et Q.
Par exemple, en demandant P=(1,2,5)(6,12) on peut estimer les paramtres ; ; ; et pour un modle AR de
la forme

1 L L2 L5 1 L6 L12 = " t
Remarque 58 Il est ncessaire dutiliser sous SAS loption noconstant de la dclaration ESTIMATE an de ne pas
avoir de constante dans la rgression.
Do nallement le modle,

(1 L) 1 L12 Xt =

1 0:8344 L
(0:0402)

1 0:4926 L12 "t


( 0:0687)

Xt = Xt1 + Xt12 Xt 13 + "t 0:8344"t 1 0:4926"t12 + 0:4110"t13


7.6.3

Vrication

On peut tout dabord noter que les rapports de Student des 2 paramtres 1 et 2 sont respectivment 21 et 7 ( 1:96)
: ce deux coecients sont signicatifs.
Comme le montre la sortie SAS prsente auparavant, pour les seuils h = 12; 24 et 36, les statistiques Q (h) valaient
respectivement 13:95, 22:54 et 34:07, alors que les quantiles de la loi du chi-deux 5% sont respectivement (pour 10; 22
et 34 degrs de libert) 18; 34 et 46. Puisque Q h 1 , on accepte lhypothse de test de bruit blanc sur les rsidus.
Toutefois, il serait bien sr possible damliorer le modle. En particulier, on peut noter que les rsidus prsentent
des pics au niveau de lautocorrlogramme pour les h multiples de 6.

143

Sries temporelles : thorie et applications

Arthur CHARPENTIER

(Source: Les Formidables Aventures de Lapinot, Blacktown, de Lewis Trondheim, Dargaud, 2000)

144

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dans toute statistique, linexactitude du nombre est compense par la prcision des dcimales.
(Alfred Sauvy)

Prvisions laide des modles ARIM A : Box-Jenkins

Etant donne une srie stationnaire (Xt ), observe entre 1 et T , on cherche faire de la prvision horizon h, et donc
prvoir XT +1 ; :::; XT +h . Tous les processus AR, M A et ARM A seront supposs mis sous forme canonique, et navoir
aucune racine unit. Aussi, toutes les racines des polynmes autorgressifs et des polynmes moyennes-mobiles
auront leurs racines lextrieur du disque unit. Ainsi, pour tous les processus Xt tels que (L) Xt = (L) "t , " t
sera linnovation du processus Xt.

8.1

Prvisions laide dun modle AR (p)

Le modle scrit, quite recentrer le processus,


Xt = 1 Xt1 + ::: + p Xtp + " t ou (L) Xt = "t
La prvision optimale la date T + 1, faite la date T est T XT +1 = E L (XT +1 jXT ; XT 1 ; :::). Aussi,

T XT +1

= 1XT + ::: + p XT p

car (" t) est linnovation. De faon analogue, XT +h = 1 XT +h 1 + ::: + p XT +hp + "T + h, et donc
E L (XT +h jXT ; XT 1 ; :::) est donn, de faon rcursive par

1 :T XT +h 1 + ::: + h 1 :T XT + 1 + h XT + ::: + p XT +h p pour h p

X
=
T T +h
1 :T XT +h 1 + ::: + p :T XT +h p pour h > p

T XT +h

Exemple 90 Dans le cas dun processus AR (1) tel que Xt = + Xt1 + " t alors
(i) T XT +1 = + XT ;
(ii) T XT +2 = + :T XT +1 = + [ + XT ] = [1 + ] + 2 XT ;

(iii) T XT +3 = + :T XT +2 = + [ + [ + XT ]] = 1 + + 2 + 3 XT ;
et rcursivement, on peut obtenir T XT +h de la forme
h
i

2
h1
+ hXT :
T XT +h = + :T XT +h1 = 1 + + + ::: +

Exemple 91 Une mthode alternative est de considrer le processus centr Y t = Xt =, alors Y t = Y t1 + " t.
h
1

Alors de faon rcursive T Y T+h = :T Y T


+h , et donc T Y T +h = Y T . Aussi, on peut crire

1 h

h
+ XT
=
+ h XT :
T XT +h =

1
| {z }
1++2+: ::+h1

8.2

Prvisions laide dun modle M A (q)

On supposera l aussi que lon sest ramen un processus centr (Xt ), satisfaisant
Xt = " t + 1 "t 1 + ::: + q "tq = (L) "t :
La prvision optimale la date T +1, faite la date T est T XT +1 = E L (XT +1 jXT ; XT 1 ; :::) = E L (XT +1 j"T ; "T 1 ; :::)
car (" t) est le processus dinnovation. Aussi,
De faon analogue, XT +h est estim par

T XT +h

T XT +1

= 0 + 1 "T + ::: + q "T +1 q

T XT +h

= E L (XT +h jXT ; XT 1 ; :::) = EL (XT +h j"T ; "T 1 ; :::), et donc

h :T XT + ::: + q XT +h q pour h q
0 pour h > q:

(37)

Toutefois, cette mthode prsente le dsavantage destimer XT +h partir des rsidus passs, a priori non observables,
et non pas du pass de la variable.
145

Sries temporelles : thorie et applications

8.2.1

Arthur CHARPENTIER

Utilisation de lcriture AR (1) du processus M A (q)

Lquation Xt = (L) "t peut se rcrire 1 (L) Xt = " t, soit


Xt =

1
X

1
X

ak Xtk + "t et donc Xt+h =

k=1

k=1

ak Xt+h k + " t+h pour tout h 0

Aussi, T XT +h peut tre crit de faon itrative

T XT +h =

h
X1

ak :T XT + hk +

k=1

1
X

ak Xt+h k

k=h

Toutefois, un des problmes est que les (Xt ) ne sont pas observs, en pratique, pour t < 0. On utilise alors lcriture
suivante
1
h 1
1
X
X
X
XT +h =
ak XT +hk + "t+h =
ak XT +h k +
ak XT +h k + " T +h ;
k=1

k=1

k=h

{z

Re st e d u ne s rie A CV

o le reste de la srie absolument convergente tend (au sens de L2 ) vers 0 quand T ! 1. On peut alors considrer,
quand T est susement grand que

T XT +h =

h1
X

ak :T XT +h k +

k=1

b
et on approxime T XT +h par T X
T +h

8.2.2

T
+h
X

ak XT +h k +

k=h

b
T XT +h =

h
1
X
k=1

1
X

k= T +h +1

b
ak : T X
T +hk +

TX
+h

ak XT +hk ;
{z

N g lige ab le (h yp .)

ak XT +hk :

k=h

Utilisation de la formule de mise jour des rsultats

Lide est ici de comparer lestimation faite en T de X T +1 ,

XT +1 avec la vraie valeur :

XT +1 T XT + 1 = "T +1 :
La relation (37) permet dobtenir une estimation, la date T de XT +h . En se plaant la date T + 1, on peut noter

que T + 1 XT +h =T +1 X(T
+1)+( h1) et donc

T +1 XT +h =

et donc, pour h q + 1

T +1 XT +h

8.3

h1 "T +1 +T XT + h pour h q + 1
0 pour h > q + 1;

= T XT +h + h 1 XT +1 T XT +1 : Formule de mise jour

Prvisions laide dun modle ARM A (p; q)

On supposera l aussi que lon sest ramen un processus centr (Xt ), satisfaisant
(L) Xt = (L) "t
Remarque 59 Dans le cas dun processus non centr, (L) Xt = + (L) "t , on peut noter que EXt = = (1) = m,
et que (L) (Xt m) = (L) "t . Il est donc toujours possible, en translatant le processus, de se ramener un processus
centr (pour des processus ARM A seulement).

146

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Sous cette forme ARM A, alors


Xt =

p
X

iXti + "t +

i=1

q
X

j "tj et donc Xt+ h =

j= 1

p
X

i Xt+h i + "t+ h +

i=1

q
X

j " t+hj :

j=1

On a alors T XT +h = EL (XT + hjXT ; XT 1 ; :::) = E L (XT +h j"T ; "T 1 ; :::) car "t est le processus dinnovation. On peut
noter que pour h > q

1 :T XT +h 1 + ::: + h1 :T XT +1 + h XT + ::: + p XT +h p pour h p

X
=
T +1 T +h
1 :T XT +h 1 + ::: + p :T XT +h p pour h > p:
La forme gnrale des solutions est connue (comme dans le cas des AR (p)).
dinitialisation des calculs.
8.3.1

Toutefois, il y a ici un problme

Utilisation de la forme AR (1) pu processus ARM A (p; q)

Lquation (L) Xt = (L) "t peut se rcrire 1 (L) (L) Xt = "t , cest dire, comme dans le cas des processus
M A (q),
1
1
X
X
Xt =
ak Xtk + "t et donc Xt+h =
ak Xt+h k + "t+h pour tout h 0;
k= 1

k=1

et de la mme faon que pour la modlisation AR (1) des processus M A (q), on peut rcrire
XT +h =

1
X

ak XT + hk + "t+h =

k=1

h1
X
k=1

ak XT +h k +

1
X

k=h

ak XT +h k + " T + h;

{z

n glig e ab le d an s L2

do la forme itrative, obtenue par approximation, en ne tenant pas compte du second terme, ngligeable dans L2 ,
b
T XT +h

8.3.2

h
1
X
k=1

b
ak : T X
T +hk +

TX
+h

ak XT +hk :

k=h

Utilisation de la forme M A (1) pu processus ARM A (p; q) et des formules de mise jour

Lquation (L) Xt = (L) "t peut se rcrire Xt = (L)

(L) "t soit encore


1
X

Xt = "t + 1 "t1 + ::: + q" tq + ::: = "t +

b j "tj :

j=1

Puisque23 L2 (Xt ; Xt1 ; :::) = L2 (" t; "t 1 ; :::), on peut crire T XT +h = E L (XT +h jXT ; XT 1 ; :::) = EL (XT +h j"T ; "T 1 ; :::
soit
1
X

X
=
b j " t+hj :
T T +h
j=h

De plus, puisque

T + 1XT +h

=T +1 X(T
+1)+( h1) ,

T +1 XT +h

8.4

=T XT +h

on peut crire

+ b h1 XT +1 T XT +1 : Formule de mise jour.

Prvisions dans le cas dun processus ARIM A (p; d; q)


d

On considrons ici (Xt ) satisfaisant une quation de la forme (L) (1 L) Xt = (L) "t avec les conditions initiales
0

Z = (X1 ; :::; Xp d ; "1 ; ::; "q ) :


d

Posons alors (L) = (L) (1 L) . La forme ARIM A (p; d; q) peut scrire


p+ d

Xt =

X
i=1

2 3 Cette

iXti + "t +

q
X

p+d

j "tj et donc Xt+ h =

j= 1

X
i=1

iXt+h i + " t+h +

q
X

j "t+hj :

j=1

proprit L2 (Xt ; Xt1 ; :::) = L2 ("t ; "t1; :::) est une caractrisation du fait que " t est linnovation du processus X t.

147

Sries temporelles : thorie et applications

Notons T XT +h la prvision faite la date T ,


p+ d
T

XT +h =

i :T XT +hi

i=1

Arthur CHARPENTIER

XT +h = E L (XT +h jXT ; XT 1 ; :::; X0 ; Z ). Alors


8
q
XT +h i pour i h
< T XT +h i =
X

+0+
j :T "T + hj o
0 pour j < h
: T "T +hj =
j=1
"T +h j pour j h
T

En particulier, pour h q, on obtient une relation de rcurence de la forme


p+d

T XT +h =

i :T XT +hi :

i=1

8.4.1

Utilisation de lapproximation AR

Cette approximation est base sur la proprit (42), rappele ci-dessous,


Proprit 53 Soit (Xt ) un processus ARIM A (p; d; q) de valeurs initiales Z; alors (Xt) peut scrire sous la forme
AR,
t
X
Xt =
aj Xtj + f (t) Z + "t ;
j= 1

o les aj sont les coecients (pour j 1) de la division selon les puissances croissantes de par ; et f (t) est un
vecteur (ligne) de fonctions de t qui tend vers 0 quand t ! 1.
On peut alors crire
Xt+ h =

t+h
X

j= 1

et ainsi,

aj Xt+h j + f 0 (t + h) Z + "t+h ;

T XT +h = E L (Xt+ hjXT ; XT 1 ; :::; X0 ; Z) =

avec la convention

8.4.2

t+
Xh

aj :T XT +hj + f 0 (T + h) Z + 0;

j=1

XT + hj = XT +h j pour j h. Or la limite de f (t) est 0 quand t ! 1, do lapproximation


b
T XT +h

h
1
X
k=1

Utilisation de lapproximation M A

bT +hk +
ak : T X

TX
+h

ak XT +hk :

k=h

De la mme faon, un processus ARIM A peut tre approxim par un processus M A,


Proprit 54 Soit (Xt ) un processus ARIM A (p; d; q) de valeurs initiales Z; alors (Xt) peut scrire sous la forme
M A,
t
X
Xt =
b j "tj + g 0 (t) Z;
(38)
j=1

o les hj sont les coecients de la division selon les puissances croissantes de par ; et g 0 (t) est un vecteur (ligne)
de fonctions de t.
La relation (38) permet alors dcrire
Xt+ h =

t+h
X

bj "t+h j + g0 (t + h) Z avec lim g (u) = 0:


u !1

j= 1

Puisque L2 (Xt ; Xt1 ; :::) = L2 ("t ; "t1 ; :::), on peut crire T XT +h = E L (XT +h jXT ; XT 1 ; :::; X0 ; Z ) = E L (XT +h j"T ; "T
soit
T
+h
X

b j " T + hj + g 0 (T + h) Z;
T XT +h =
j=h

148

Sries temporelles : thorie et applications

Arthur CHARPENTIER

do les approximations, compte tenu de la limite de g (:),

Do la relation

8.5

b
T XT +h

TX
+h

bj "T +h j et

j=h

b
T +1 XT +h

T
+h
X

bj "T +hj :

j=h 1

h
i

b
b
b
X
=
X
+
b
X

X
: Formule de mise jour
T + 1 T +h
T
h 1
T +1
T
T +h
T +1

Intervalle de conance de la prvision

Cet intervalle est obtenu partir de la forme M A (1) dans le cas o (Xt) est stationnaire, ou de son approximation
M A dans le cas non-stationnaire (ARIM A).
(i) dans le cas stationnaire,
XT +h =

1
X
i= 0

b i"T +h i =

T
+h
X
i=0

b i" T +h i +

et donc
T h

b T + h t
= Xt+h T X

(i) dans le cas non-stationnaire (ARIM A),


XT +h =

1
X

b i "T + hi + g (T + h) Z =

i=0

TX
+h

h
X

1
X

i= T +h +1

b i" T +h i;

bi "T +hi :

i=0

1
X

bi "T +hi +

i=0

bi "T +hi + g 0 (T + h) Z;

i=T +h+1

et donc
b
T h = Xt+h T XT + h t

h
X

bi "T +hi :

i=0

Sous lhypothse de normalit des rsidus ("t ), H0 : "t i.i.d., " t s N 0; 2 , alors
T

h =

b T +h
Xt+h T X

sN

do lintervalle de conance pour XT +h au niveau 1


2

b
4T X
T +h u 1=2

0;

h
X
i= 0

b 2i

v
3
u h
uX
bb 2 5 ;
:s t
i

i=0

o les bb i sont des estimateurs des coecients de la forme moyenne mobile, et s est un estimateur de la variance du
rsidu.

8.6
8.6.1

Prvision pour certains processus AR et MA


Prvision pour un processus AR (1)

Considrons le processus stationnaire (Xt ), sous la forme gnrale Xt = 1 Xt 1 + + "t .La prvision horizon 1,
fait la date T , scrit

T XT +1 = E (XT +1 jXT ; XT 1 ; :::; X1 ) = 1 XT + ;


et de faon similaire

T XT +2

= 1T XT +1 + = 21 XT + [1 + 1] :

De faon plus gnrale, on obtient rcursivement la prvision horizon h,


h
i
h
h1

+ ::: + 1 + 1 :
T XT +h = 1 XT + 1
149

(39)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

On peut noter que quand h ! 1, T XT +h tend vers = (1 1 ), la moyenne du processus Xt . Lerreur de prvision
horizon h est donne par
T

=
=

T XT +h

XT +h = T XT + h [1 XT +h 1 + + "T +h ]
h

i
1
h 1
::: = T XT + h h1 XT + h
+
:::
+

+
1

+
"
+

"
+
:::
+

"
;
T
+h
T
+h
1
T
+1
1
1
1
1

do, en substituant (39), on obtient

T h

qui possde la variance

= "T + h + 1 "T +h1 + ::: + h1


"T +1 ;
1

h
i
Vb = 1 + 21 + 41 + ::: + 2h2
2 ; o V (" t) = 2 :
1

La variance de la prvision croit avec lhorizon.

Exemple 92 Considrons le processus suivant,


Xt = 5 + 0:5Xt 1 + "t o "t s N (0; 1) ;
dont les dernires observations ont t 11.391, 12.748, 10.653, 9.285 et 10.738. La prvision pour la date T + 1 est
alors

T XT + 1 = E (XT +1 jXT ; XT 1 ; :::; X1 ) = 1 XT + = 5 + 0:5 10:738 = 10:369

1 :T XT +1 +

= 10:184:
T XT +2 =
(1 + 1 ) + 1 :XT
Do nallement les prvisions suivantes, avec la variance, lintervalle de conance, et la taille relative de lintervalle
de conance
horizon

T XT +h
Vb

0
10:738

90%
Binf
90%
Bsup
IC 90%

1
10:369
1:000
8:739
11:999
15:7%

2
10:184
1:250
8:362
12:007
17:9%

3
10:092
1:313
8:225
11:960
18:5%

4
10:046
1:328
8:168
11:925
18:7%

5
10:023
1:332
8:142
11:904
18:8%

6
10:012
1:333
8:130
11:893
18:8%

7
10:006
1:333
8:124
11:888
18:8%

Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation
relative de lintervalle de conance,
0.2

13
12

0.1

11

0.0
10

-0.1

9
8
10

15

20

25

30

X
BORNE_INF90

8.6.2

35

40

-0.2

45

10

BORNE_SUP90
SIMUL1

15

20
IC

25

IC_INF90

Prvision pour un processus M A (1)

Considrons le processus stationnaire (Xt ), sous la forme gnrale


Xt = + "t + 1 "t1
La prvision horizon 1, fait la date T , scrit
T

XT +1 = E (XT +1 jXT ; XT 1 ; :::; X1 ) = + 1 "T


150

30

35

40
IC_SUP90

45

Sries temporelles : thorie et applications

Arthur CHARPENTIER

o "T est lerreur de la dernire observation, la date T . De faon plus gnrale, on obtient rcursivement la prvision
horizon h,

(40)
T XT +h = E (XT +h jXT ; XT 1 ; :::; X1 ) = E ( + "T +h + 1 "T +h1 ) =

Cest dire qu partir dun horizon 2, la meilleure prvision est la moyenne du processus. Lerreur de prvision
horizon h est donne par

T h =T XT +h XT +h = "T +h + 1 "T +h1


dont la variance est

b = 1 + 21 2 o V ("t ) = 2
V

pour h 2. Sinon, pour h = 1, la variance est Vb = 21 2 .


Exemple 93 Considrons le processus suivant,

Xt = 5 + "t 0:5"t1 o "t s N (0; 1)


dont les dernires observations ont t 4.965, 5.247, 4.686 et 5.654. Pour faire de la prvision, soit on considre
la forme AR (1) du processus, soit on cherche uniquement exprimer ("t ) en fonction du pass de (Xt ), ou de
Y t = Xt 5, processus centr
"t

=
=

Yt + 0:5"t 1 = Y t + 0:5 [Y t1 + 0:5"t 2 ] = Y t + 0:5 [Yt 1 + 0:5 [Yt 2 + 0:5"t3 ]] = :::


1
1
X
X
(0:5)i Y ti =
(0:5)i [Xt i 5]
i= 0

i=0

La prvision pour la date T + 1 est alors

T XT +1

= E (XT +1 jXT ; XT 1 ; :::; X1 ) = + 1 "t = 5 0:5 0:606 = 3:3049

et la prvision un horizon h 2 est alors , la constante du modle,

T XT +2

==5

Do nallement les prvisions suivantes, avec la variance, lintervalle de conance, et la taille relative de lintervalle
de conance
horizon

T XT +h
Vb

0
5:654

B 90%
inf
B 90%
sup
IC 90%

1
3:304
0:250
2:489
4:119
24:7%

2
5:000
1:250
3:178
6:822
36:4%

3
5:000
1:250
3:178
6:822
36:4%

4
5:000
1:250
3:178
6:822
36:4%

5
5:000
1:250
3:178
6:822
36:4%

6
5:000
1:250
3:178
6:822
36:4%

7
5:000
1:250
3:178
6:822
36:4%

Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation
relative de lintervalle de conance,
0.4

8
7

0.2
6
5

0.0

-0.2

3
2

10

15

20

25

X
SIMUL1

30

35

40

-0.4

45

10

BORNE_INF90
BORNE_SUP90

15

20
IC

151

25

30

IC_INF90

35

40
IC_SUP90

45

Sries temporelles : thorie et applications

8.6.3

Arthur CHARPENTIER

Prvision pour un processus ARIM A (1; 1; 0)

Il sagit ici dun modle AR (1) pour la variable intgre Y t = Xt Xt1 , Y t = 1 Yt 1 + + " t. Aussi, la prvision
horizon h = 1 est donne par

T XT +1 = XT + T Y T + 1 ;
et de faon plus gnrale
T

En substituant aux

XT + h = XT +T Y T+1 +T Y T+2 + ::: +T YT+h :

YT+i ce qui a t trouv prcdemment pour les processus AR, on obtient

T XT +1

= (1 + 1 ) XT 1 XT 1 + ;

et, pour un horizon h = 2,

T XT +2

= 1 + 1 + 21 XT 1 + 21 XT 1 + (1 + 1) + :

Lexpression gnrale de la prvision la date h sobtient rcursivement laide de


(
h
i
h
h 1

+ ::: + 1 + 1
T YT +h = 1 Y T + 1
T

XT +h =T XT +1 + 1 :T Y T+h1 + :

Lerreur faite sur la prvision horizon 1 est donne par


T

1 = T XT +1 XT + 1 = T YT+1 Y T +1 = "T + 1 , de variance 2:

A horizon 2, lerreur de prvision est

=T XT +2 XT +2 = T Y T+1 Y T +1 + T Y T+2 Y T +2 = (1 + 1 ) "T + 1 + "T +2 ;


h
i
dont la variance est Vb = 1 + (1 + 1 )2 2 . De faon plus gnrale, lerreur de prvision horizion h est
T 2

=
=
=

do la variance

YT +1 + T Y T+ 2 Y T +2 + T Y T+1 Y T +1 + ::: + T YT+h Y T +h

"T + 1 + ("T +2 + 1 "T +1 ) + ::: + "T +h + 1 "T +h1 + ::: + h2


"T +2 + h1 1 "T +1
1

1
"T + h + (1 + 1 ) "T +h 1 + ::: + 1 + 1 + ::: + h
"T +1 ;
1

T YT + 1

2
0
12 3
h
i1
6X @X j A 7 2
Vb = 4
1 5 :
i=1

j=0

Lerreur de prvision sur XT + h est alors laccumulation des erreurs de prvision de YT +1 ; :::; Y T +h .
Exemple 94 Considrons le processus (Xt ) tel que Xt Xt 1 = Y t o (Y t ) vrie,
Y t = 2 + 0:2Y t1 + "t o "t s N (0; 1) ;
dont les dernires observations ont t 81.036, 84.074 et 86.586. Le processus (Y t) sous-jacent peut tre obtenu comme
dirence entre Xt et Xt 1 . On cherche alors les prvisions de (Yt ) et les prvisions de (Xt ) correspondent la somme
des (Y t ) prvus (processus intgr).
(Xt )
(Y t )

70:788

73:606
2:818

74:937
1:331

78:035
3:098

81:036 84:074
3:001
3:037

86:586
2:512

La prvision pour la date T + 1 est alors

T XT +1

et donc

= XT +T Y T+1 o

YT+1 = + 1 Y T = 2:502;

XT +1 = 89:088: Lla prvision un horizon h 2 est alors

T Y T +1 = + 1 Y T = 2:5024

T XT +2 = XT +T YT +1 +T YT +2 o

T Y T +2 = + 1 : T Y T +1 = 2:5005
152

Sries temporelles : thorie et applications

Do nallement les prvisions suivantes, avec


de conance
horizon
0
1

Y
2:512
2:502
T T +h

86:586 89:088
T XT +h
b
V
1:000
90%
Binf
87:458
Bs90%
90:718
up
IC 90%
1:8%

Arthur CHARPENTIER

la variance, lintervalle de conance, et la taille relative de lintervalle


2
2:500
91:589
2:440
89:043
94:135
2:8%

3
2:500
94:089
3:978
90:838
97:340
3:5%

4
2:500
96:589
5:535
92:754
100:42
4:0%

5
2:500
99:089
7:097
94:747
103:43
4:4%

6
2:500
101:59
8:659
96:793
106:39
4:7%

7
2:500
104:09
10:22
98:878
109:30
5:0%

Graphiquement, on obtient gauche les prvisions suivantes (avec la vraie valeur de Xt), et droite la variation
relative de lintervalle de conance,
0.08

130

0.06

120

0.04
110

0.02

100

0.00

90

-0.02
-0.04

80

-0.06
70
30

32

34

36

38

X
BORNE_INF90

8.7
8.7.1

40

42

44

46

-0.08

48

BORNE_SUP90
SIMUL1

10

15

20
IC

25

30

IC_INF90

35

40

45

IC_SUP90

Application
Example de prvision : cas dcole

Considrons le modle ARIM A (1; 1; 1) donn par


(1 L) (1 0:5L) Xt = (1 0:8L) "t ;

b = E L XT +1 jXT =
o lon suppose que "t est gaussien, centr, de variance connue 2 = 0:5, avec XT = 12 et T X
T +1
10, o XT = fX1 ; :::; XT ; Zg.

b
La prvision horizon h faite en T est T X
T +h = E XT +h jXT .
b
(i) estimation de T X
T +h : Cette forme ARIM A scrit
Xt 1 Xt 1 2 Xt2 = "t + 1 "t1 , avec une racine unit.

b
b
b
Aussi, pour h 2, on peut crire T X
T +h 1 : T XT +h1 2 : T XT +h 2 = 0: Pour expliciter les solutions, on se
ramne au problme suivant : recherche des suites u n telle que un = u n1 + u n2 24 . Les racines du polynme
bT +k = :1h + : (1=2)h : Compte tenu du fait que XT = 12 et
caractristique tant 1 et 1=2, on peut crire T X
b
T XT +1 = 10 on en dduit = 8 et = 4. Aussi
b
T XT +h

= 8+

4
do les premires valeurs f12; 10; 9; 8:5; 8:25; 8:125; :::g
2k

(ii) expression de lintervalle de conance : Lintervalle de conance 95% de la prvision est de la forme
"
#
r
r

b
b
b
b
V T XT +h ;T XT +h + 1:96 V T XT +h :
T XT +h 1:96

2 4 Rappel : Pour une relation rcurente u = u


n
n
n
n1 + un2 , la forme gnrale des solutions est un = r1 + r2 o r 1 et r2 sont les
racines du polynme P (x) = x2 x , dans le cas o les racines sont distinctes. Dans le cas o P admet une racine double (r), la
forme gnrale est un = ( + r) rn . Dans le cas o la suite est e ntirement dtermine par les valeurs initiales u1 et u2, alors et sont
entirement dtermins par la rsolution du systme

u1 = r1 + r 2
u2 = r12 + r22

153

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Cette variance sobtient en approximant la forme ARIM A par une forme M A (1),
XT +1 XT = "T + b 1 "T 1 + b 2 "T 2 + :::
On note alors que

8
XT +1 XT = " T +1 + b1 "T + b 2 "T 1 + :::
>
>
<
XT +2 XT +1 = "T +2 + b 1 "T +1 + b 2 "T + :::
:::
>
>
:
XT +h XT +h 1 = "T +h + b 1 "T +h 1 + b 2" T + h2 + :::

do , par sommation, lexpression de XT +h XT et en considrant la variance (puique les "t sont identiquement
distribus, de variance 2 , et surtout indpendant),

h
i
bT +h = 2 1 + (1 + b 1 )2 + (1 + b 1 + b 2 )2 + ::: + (1 + b 1 + ::: + b h )2 :
V TX
1

Or lexpression des b i est donne par la relation B (L) = (L) 1 (L) = (1 0:8L) (1 0:5L)

L2
L3
B (L) = (1 0:8L) 1 + 0:5L + 0:52 L2 + ::: = 1 0:3L 0:3
0:3 2 :::
2
2

et donc b 0 = 1 et b i = 0:3=2 i 1 . Aussi

1
1
1
1 + b 1 + :::b j = 1 0:3 1 + + + ::: + j1
2
4
2
et donc
V

1
= 1 0:6 1 j
2

= 0:4 +

0:6
;
2j

2
h1

X
0:6

2
b
0:4 + j
:
T XT +h =
2
j=0

Do nalement les prvisions et les premiers intervalles de conance suivant :


h
B95%
inf
B90%
inf
b
T XT +h
B90%
sup
B95%
sup
IC95%

12:000

1
8:040
8:360
10:000
11:640
11:960
19:6%

2
6:444
6:862
9:000
11:138
11:556
28:4%

3
5:560
6:040
8:500
10:960
11:440
34:6%

4
5:015
5:543
8:250
10:957
11:485
39:2%

5
4:639
5:209
8:125
11:041
11:611
42:9%

6
4:353
4:959
8:063
11:166
11:772
46:0%

7
4:116
4:755
8:031
11:307
11:947
48:7%

8
3:906
4:577
8:016
11:454
12:125
51:3%

9
3:715
4:416
8:007
11:600
12:301
53:6%

10
3:535
4:265
8:004
11:743
12:473
55:8%

On notera bien sur cet exemple que les prvisions laide dun modle ARIM A moyen terme sont dj relativement
incertaines. Graphiquement, on obtient, gauche, la prvision suivante (avec les intervalles de conance 90% et
95%), et droite, lvolution relative de lintervalle de conance en fonction de lhorizon de prvision
14

0.6

12

0.4

10

0.2

0.0

-0.2

-0.4
-0.6

2
1

X
BORNE_INF90
BORNE_SUP90

10

11

IC
IC_INF90
IC_SUP90

BORNE_INF95
BORNE_SUP95

154

IC_INF95
IC_SUP95

10

11

Sries temporelles : thorie et applications

8.7.2

Arthur CHARPENTIER

Exemple dapplication : cas pratique

Considrons ici la srie du nombre de voyageurs SNCF, et la modlisation ARIM A que nous avions pu faire,

12
12
(1 L) 1 L
Xt = 1 0:8344 L
1 0:4926 L
"t :
(0: 0402)

(0:0687)

(41)

La srie Zt peut alors tre utilise pour faire de la prvision, laide de sa modlisation M A, sous SAS
600

ARIMA Procedure

400
Forecasts for variable Z
Obs
205
206
207
208
209
210
211
212
213
214
215
216
217

Forecast Std Error


-56.9839 124.1251
322.5639 161.6583
43.9931 161.6583
-146.3447 161.6583
-100.0972 161.6583
56.2979 161.6583
-10.3091 161.6583
50.8267 161.6583
95.2525 161.6583
-112.7559 161.6583
-23.3419 161.6583
73.6131 161.6583
-36.8593 172.8357

Lower 95%
-300.2647
5.7195
-272.8513
-463.1890
-416.9416
-260.5465
-327.1535
-266.0176
-221.5919
-429.6002
-340.1863
-243.2313
-375.6110

200

Upper 95%
186.2969
639.4083
360.8374
170.4997
216.7472
373.1422
306.5353
367.6711
412.0968
204.0885
293.5024
390.4574
301.8924

0
-200
-400
-600
-800

20

40

60

80 100 120 140 160 180 200


Z

Comme nous le voyons sur cet exemple, la prvision laide dun modliation ARM A reste relativement oue, mme
ici court terme (un exemple analogue sera repris plus en dtails dans la partie suivante).

155

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Applications de la mthode de Box & Jenkins

Nous allons ici nous intresser 2 applications de ces modles sur donnes relles. Dans une premire partie, nous
allons voir comment utiliser cette mthode en assurance-vie, an de prvoir un nombre de contrats dans un portefeuille.
Dans une seconde partie, nous allons voir comment utiliser cette mthode en nance, pour modliser des taux dintrt.
Enn, dans une troisime partie, nous allons nous intresser lapplication de cette mthode sur des donnes simules.

9.1

Application un portefeuille dassurance-vie

Nous allons considrr ici le nombre de contrats dans un portefeuille, exprim en nombre de contrats mensuels, laide
de donnes mensuelles, sur une dizaine dannes (source :Droesbeke, Fichet, Tassi (1992))
600
500
400
300
200
100
0

20

40

60

80

100

120

140

La srie brute (Xt ) prsente une forte saisonnalit, correspondant aux mois de septembre. En particulier 4 points se
distinguent, correspondant 4 fortes campagnes de publicit faites partir de n aot.
9.1.1

Modlisation de la srie

An denlever une ventuelle tendance, les auteurs proposent dtudier Yt = (1 L) Xt = Xt


600
400
200
0
-200
-400
-600
20

40

60

80

100

120

140

156

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Toutefois, une tude des tests de racine unit sur la srie (Xt) aurait permi de comrmer lhypothse de stationnarit
de la srie
Null Hypothesis: X has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=10)
t-Statistic
-8.531272
-4.105534
-3.480463
-3.168039

Augmented Dickey-Fuller test statistic


Test critical values:
1% level
5% level
10% level

Null Hypothesis: X has a unit root


Exogenous: Constant, Linear Trend
Bandwidth: 2 (Newey-West using Bartlett kernel)
Prob.*
0.0000

Phillips-Perron test statistic


Test critical values:
1% level
5% level
10% level

*MacKinnon (1996) one- sided p-values.

*MacKinnon (1996) one-sided p -values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(X)
Method: Least Squares
Date: 07/18/03 Time: 07:58
Sample: 80 144
Included observations: 65

Residual variance (no correction)


HAC corrected variance (Bartlett kernel)

Variable

Coefficient

Std. Error

t-Statistic

Prob.

X(-1)
C
@TREND(80)

-1.108362
296.8203
-0.689283

0.129918
43.59923
0.698095

-8.531272
6.807926
-0.987377

0.0000
0.0000
0.3273

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.540368
0.525541
104.3387
674966.5
-392.7920
1.953637

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Phillips-Perron Test Equation


Dependent Variable: D(X)
Method: Least Squares
Variable
Coefficient
X (-1 )
C
@TREND(80)
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat

2.907692
151.4768
12.17822
12.27857
36.44527
0.000000

-1.108362
296.8203
-0.689283
0.540368
0.525541
104.3387
674966.5
-392.7920
1.953637

Adj. t-Stat

Prob.*

-8.537252
-4.105534
-3.480463
-3.168039

0.0000

10384.10
10040.64

Std. Error

t-Statistic

Prob.

0.129918
43.59923
0.698095

-8.531272
6.807926
-0.987377

0.0000
0.0000
0.3273

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F- statistic)

2.907692
151.4768
12.17822
12.27857
36.44527
0.000000

avec le test ADF (avec constante et tendance), gauche, et le test de Philipps et Perron droite. Ces deux tests
rejettent lhypothse de prsence de racine unit.
Cette approche napportant rien de plus ltude de la srie, nous pouvons noter que la srie brute Xt possde
de fortes
(h) quand h est un multiple de 12. Il est donc possible dtudier la srie dsaisonnalise
autocorrlations

Zt = 1 L12 Xt
400

200

-200

-400
20

40

60

80

100

120

140

Nous allons modliser cette srie (Zt ) laide dun processus ARM A:
9.1.2

Estimation de modles ARM A

Si la srie parat stationnaire, une autocorrlation reste signicativement non nulle, pour h = 12. Il peut tre intressant
de considrer un modle de type M A (12) sur cette srie,

[1]
1 L12 Xt = + 1 1 L12 "t

157

Sries temporelles : thorie et applications

Arthur CHARPENTIER

tant donn que les autocorrlations entre 1 et 11 peuvent sembler ngligeables. Une mthode base sur des moindres
carrs conditionnels, donne les estimations suivantes (respectivement avec et sans constante)
LS // Dependent Variable i s Z
Sample: 13 144
Included observations: 132 after adjusting endpoints
Convergence achieved after14 iterations

LS // Dependent Variable is Z
Sample: 13 144
Included observations: 132 after adjusting endpoints
Convergence achieved after 1 7 iterations
Variable Coefficient

Std . Error

T-Statistic

C
2.086042
MA(12) -0.881818

1.845862
0.043054

1.130118
-20.48182

R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat

0.258916
0.253216
56.89094
420755.3
-719.7222
1.517747

Inverted MA Roots

.99
.49+.86i
-.49 -.86i

Prob.
0.2605
0.0000

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)
.86 -.49i
.00+.99i
-.86+.49i

4.750000
65.83328
8.097308
8.140987
45.41878
0.000000

.86+.49i
-.00 -.99i
-.86 -.49i

Variable Coefficient

Std. Error

T-Statistic

MA(12) -0.899009

0.032780

-27.42595

R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood

0.250655
0.250655
56.98839
425445.6
-720.4538

Inverted MA Roots

.49 -.86i
-.49+.86i
-.99

.99
.50 -.86i
-.50+.86i

Prob .
0.0000

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
Durbin-Watson stat

.86+.50i
-.00 -.99i
-.86+.50i

.86 -.50i
-.00+.99i
-.86 -.50i

4.750000
65.83328
8.093242
8.115081
1.502360
.50+.86i
-.50 -.86i
-.99

Pour ce premier modle, nous obtenons lcriture suivante

[1]

1L

12

Xt =

1 + 0:89901L
(0:0328)

12

"t

o la volatilit de lerreur ("t ) est estime par 57. Les rsidus, reprsents ci-dessous gauche, ont lautocorrlogramme
suivant
400
200
400

300

-200

200
-400
100
0
-100
20

40

60

80

Residual

100

120

Actual

140

Fitted

Le modle prsent est rejet : les erreurs ne suivent pas un bruit blanc. En particulier, si lon considre les
autocorrlations de (Zt) la premire semble signicativement non nulle : ceci pousse tester un modle ARM A (1; 12)
de la forme (1 L) Zt = 1 L12 "t , soit
LS // Dependent Variable is Z
Sample: 14 144
Included observations: 131 after adjusting endpoints
Convergence achieved after 10 iterations

LS // Dependent Variable is Z
Sample: 14 144
Included observations: 131 after adjusting endpoints
Convergence achieved after 13 iterations
Variable Coefficient

Std. Error

T-Statistic

Prob.

Variable Coefficient

Std. Error

T-Statistic

Prob.

C
1.959250
AR(1) 0.238275
MA(12) -0.882966

2.238375
0.085711
0.039380

0.875300
2.779982
-22.42171

0.3831
0.0063
0.0000

AR(1)
0.247243
MA(12) -0.890845

0.084927
0.034450

2.911259
-25.85917

0.0042
0.0000

R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.301621
0.290709
55.64982
396403.6
-710.8628
2.040467

R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.297269
0.291822
55.60616
398873.8
-711.2697
2.049872

Inverted AR Roots
Inverted MA Roots

.24
.99
.49+.86i
-.49+.86i

[2]

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

4.656489
66.07720
8.060792
8.126636
27.64084
0.000000

Inverted AR Roots
Inverted MA Roots
.86+.49i
.00 -.99i
-.86+.49i

.86 -.49i
-.00+.99i
-.86 -.49i

.49 -.86i
-.49 -.86i
-.99

.25
.99
.50 -.86i
-.50+.86i

.86+.50i
-.00 -.99i
-.86+.50i

Mean dependent var


S.D. dependent v a r
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

.86 -.50i
-.00+.99i
-.86 -.50i

12
12
1 0:24724 L 1 L Xt = 1 + 0:89085 L
"t
(0:084)

(0:0345)

158

4.656489
66.07720
8.051737
8.095633
54.56963
0.000000

.50+.86i
-.50 -.86i
-.99

Sries temporelles : thorie et applications

Arthur CHARPENTIER

dont les rsidus " t ont le comportement suivant


400
200
400

300

-200

200
-400
100
0
-100
20

40

60

80

Residual

100

120

Actual

140

Fitted

L encore, lhypothse de bruit blanc des rsidus est rejete.


A titre de comparaison (de la mme faon que cela est fait dans Droesbeke, Fichet, Tassi (1992)), lestimation
dun modle ARM A (3; 12) donne
LS // Dependent Variable i s Z
Sample: 16 144
Included observations: 129 after adjusting endpoints
Convergence achieved after8 iterations

LS // Dependent Variable is Z
Sample : 16 144
Included observations: 129 after adjusting endpoints
Convergence achieved after 8 iterations
Variable Coefficient

Std. Error

T-Statistic

Prob.

Variable Coefficient

Std. Error

T-Statistic

AR(1)
0.203724
AR(2)
0.054332
AR(3)
0.152170
MA(12) -0.893591

0.087952
0.090117
0.089481
0.034620

2.316310
0.602907
1.700579
-25.81143

0.0222
0.5477
0.0915
0.0000

AR(1)
0.215663
AR(3)
0.164294
MA(12) -0.892081

0.085560
0.086724
0.034309

2.520598
1.894447
-26.00140

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.323645
0.307412
55.41111
383798.9
-698.9180
1.988017

R -squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.321653
0.310886
55.27198
384929.0
-699.1077
2.011660

Inverted AR Roots
Inverted MA Roots

.65
.99
.50+.86i
-.50 -.86i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)
-.22+.43i
.86 -.50i
.00+.99i
-.86+.50i

-.22 -.43i
.86+.50i
-.00 -.99i
-.86 -.50i

4.558140
66.58241
8.060077
8.148754
19.93805
0.000000

Inverted AR Roots
.63
Inverted MA Roots
.99
.50 -.86i
-.50+.86i

.50 -.86i
-.50+.86i
-.99

Prob.
0.0130
0.0605
0.0000

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

-.21+.47i
.86+.50i
-.00 -.99i
-.86+.50i

-.21 -.47i
.86 -.50i
-.00+.99i
-.86 -.50i

4.558140
66.58241
8.047513
8.114021
29.87288
0.000000

.50+.86i
-.50 -.86i
-.99

Le modle avec des composantes AR (1), AR (3) et M A (12) est signicatif.

[3]
1 0:21566L 0:16429L3 1 L12 Xt = 1 + 0:89208L12 "t
( 0:086)

(0:087)

(0:0343)

On peut galement noter que les racines des polynmes de la composante AR et de la composante M A sont distinctes
deux deux. Toutefois, lallure des rsidus, reprsente ci-dessous, pousse encore une fois rejeter lhypothse de
bruit blanc des erreurs,
400
200
0

400
300

-200

200
-400

100
0
-100
-200
20

40

60
Residual

80

100
Actual

120

140

Fitted

En revenant au modle prcdant, on peut noter la prsence dune forte autocorrlation lordre 9. On peut alors

159

Sries temporelles : thorie et applications

Arthur CHARPENTIER

tenter de modliser la srie laide dun modle de la forme (1 L) Zt = 1 L9 L12 " t.


LS // Dependent Variable i s Z
Sample : 14 144
Included observations: 131 after adjusting endpoints
Convergence achieved after1 3 iterations

LS // Dependent Variable is Z
Sample: 14 144
Included observations: 131 after adjusting endpoints
Convergence achieved after 13 iterations
Variable Coefficient
C
AR(1)
MA(9)
MA(12)

Std. Error

3.716450
0.208215
0.226980
-0.684472

3.669678
0.088354
0.058097
0.060959

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted AR Roots
Inverted MA Roots

T-Statistic

Prob.

Variable Coefficient

Std . Error

T-Statistic

Prob.

1.012745
2.356593
3.906922
-11.22845

0.3131
0.0200
0.0002
0.0000

AR(1)
0.214089
MA(12) -0.674685
MA(9) 0.234509

0.087981
0.060045
0.057176

2.433366
-11.23631
4.101524

0.0163
0.0000
0.0001

R -squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.333420
0.323004
54.36816
378354.7
-707.8105
1.997797

0.338724
0.323103
54.36419
375344.1
-707.2872
1.995098

.21
.94
.50 -.86i
-.47 -.82i

do le modle

.85 -.46i
-.02+.97i
-.83 -.51i

[4]

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

.85+.46i
-.02 -.97i
-.83+.51i

1 0:21409L
( 0:088)

4.656489
66.07720
8.021470
8.109262
21.68428
0.000000

Inverted AR Roots
Inverted MA Roots

.50+.86i
-.47+.82i
-.99

1L

12

Xt =

.21
.94
.50+.86i
-.47+.81i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)
.85+.46i
-.03+.97i
-.83+.51i

.85 -.46i
-.03 -.97i
-.83 -.51i

1 0:23450 L + 0:67498L
(0:060)

4.656489
66.07720
8.014192
8.080036
32.01242
0.000000

12

( 0:060)

.50 -.86i
-.47 -.81i
-.99

"t

L encore, le mo dle est signicatif, et surtout, lhypothse de bruit blanc des rsidus est valide :
400
200
300

200

-200

100

-400

0
-100
-200
20

40

60

80

Residual

100
Actual

120

140

Fitted

Ce modle peut alors tre utilis pour faire de la prvision. Sous SAS, nous obtenons les prvisions suivantes, sur
10 mois, pour Zt
h

Z
T T +h
volatilit

1
19:92
55:20

2
12:88
56:08

3
16:18
56:11

4
12:52
56:11

5
9:18
56:11

400

400

200

200

6
69:64
56:11

7
27:40
56:11

8
9:86
56:11

9
52:36
56:11

10
32:02
56:11

-200

-200

-400

-400
20

40

60

VALEUR
FORECAST

80

100

120

80

140

85

90

95 100 105 110 115 120 125 130 135 140


VALEUR
FORECAST

BORNE_INF90
BORNE_SUP90

BORNE_INF90
BORNE_SUP90

On peut alors noter que T XT +h = T XT + h12 + T ZT + h. De plus, la variable Xt peut alors tre prdite en utilisant la
forme M A (1) du processus Zt : (1 L) Zt = 1 L9 L12 "t . Ainsi,
Zt

=
=

1
1
(1 L)
1 L9 L12 = (1 0:21409:L)
1 0:23450:L9 + 0:67498:L12 " t

1 0:23450:L9 + 0:67498:L12 1 + 0:2141:L + 0:2141 2 :L2 + 0:21413 :L3 + ::: "t


160

Sries temporelles : thorie et applications

Arthur CHARPENTIER

le polynme M A B (L) scrit alors


8
>
> 1
1
<
X
0:2141 i
i
B (L) =
b iL o bi =
>
0:2141 i 0:2141i9 0:2345
>
i= 0
:
0:2141 i 0:2141i9 0:2345 + 0:2141 i 12 0:6745

pour
pour
pour
pour

i=0
1i8
9 i 11
11 i

La variance de la prvision T XT +h est alors donne par


V

h
1
X

2
X
=

[1 + b 1 + ::: + b j ]
T
T +h
j=0

soit ici, puisque 2 est estim par s2 = 54:368 2 ,


h

1
117:08
54:37

T XT +h

volatilit

2
177:12
85:52

3
241:18
109:57

4
173:48
129:50

5
172:18
146:81

800

800

600

600

400

400

200

200

-200

-200
20

40

60

80

VALEUR
FORECAST

9.2

6
234:36
162:29

100

120

140

80

85

90

7
173:4
176:41

9
255:36
201:73

10
277:02
209:47

95 100 105 110 115 120 125 130 135 140


VALEUR
FORECAST

BORNE_INF90
BORNE_SUP90

8
167:86
189:49

BORNE_INF90
BORNE_SUP90

Application de la srie des taux dintrt 3 mois

Nous allons considrr ici les taux 3 mois du trsor amricain (source :Pindyck et Rubinfeld (1998)), donnes
mensuelles, de Janvier 1960 Mars 1996
20
16

12

8
4

0
60

65

70

75

80

85

90

95

161

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Lautocorrlogramme de la srie bute des taux (Xt ) permet de se rendre compte rapidement que la srie nest pas
stationnaire. La srie direncie Y t = Xt Xt1 a lallure suivante
4
2
0
-2
-4
-6
60

65

70

75

80

85

90

95

La srie ainsi forme semble stationnaire. A titre comparatif, la srie Zt obtenue en direnciant 2 fois donne des
rsultats ne semblant pas signicativement dirents
4
2
0
-2
-4
-6
60

65

70

75

80

85

90

95

Aussi, direncier 1 fois sut pour obtenir un modle stationnaire.


9.2.1

Modlisation de la srie

Compte tenu de lallure des autocorrlogrammes de Yt , nous pouvons penser modliser la srie Xt par un processus
ARM A (p; q). La mthode du coin, dcrite auparavant, donne le tableau - suivant
inj
1
2
3
4
5
6
9.2.2

1
0:272
0:116
0:102
0:042
0:055
0:180

2
0:189
0:041
0:006
0:007
0:004
0:043

3
0:007
0:006
0:003
0:002
0:005
0:012

4
0:024
0:001
0:001
0:002
0:002
0:003

5
0:041
0:003
0:001
0:003
0:001
0:001

6
0:148
0:040
0:011
0:003
0:001
0:000

Estimation des paramtres dune modlisation ARIM A (1; 1; 1)

Lestimation donne les rsultats suivants (la constante tait clairement non signicative),

1 + 0:324 L Yt = 1 + 0:662 L "t


(0: 105)

( 0:083)

162

Sries temporelles : thorie et applications

Arthur CHARPENTIER

LS // Dependent Variable is Y
Sample : 1960:01 1996:03
Included observations: 435
Convergence achieved after 4 iterations
Variable

Coefficient

Std . Error

T-Statistic

AR(1)
MA(1)

-0.324261
0.662163

0.104881
0.082710

-3.091706
8.005835

R-squared
0.112854
Adjusted R-squared 0.110805
S.E. of regression 0.515486
Sum squared resid 115.0593
Log likelihood
-327.9853
Durbin-Watson stat 1.989933
Inverted AR Roots
Inverted M A Roots

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob (F-statistic)

Prob .
0.0021
0.0000

0.000892
0.546661
-1.320703
-1.301966
55.08189
0.000000

-.32
-.66

Conditional Least Squares Estimation


Parameter
MU
MA1,1
AR1,1

2
0
4

-4

65

70

75

Residual

80

85

Actual

90

T Ratio Lag
0.03
0
-7.68
1
-2.97
1

Autocorrelation Check of Residuals

-6

To
Chi
Lag Square DF
6
19.81 4
12
49.71 10
18
91.46 16
24 116.80 22
30 125.85 28
36 130.82 34
42 131.09 40
48 137.03 46

-2
-4
60

Approx.
Std Error
0.03114
0.08545
0.10726

Constant Estimate = 0.00118737


Variance Estimate = 0.26700634
Std Error Estimate = 0.51672656
AIC
= 661.538656*
SBC
= 673.75779*
Number o f Residuals =
434
* Does not include log determinant.

-2
2

Estimate
0.0009002
-0.65661
-0.31902

95

Prob
0.001
0.000
0.000
0.000
0.000
0.000
0.000
0.000

Autocorrelations
0.005 -0.012 -0.106 -0.037 0.081
-0.151 0.082 0.173 0.024 0.011
-0.019 0.218 -0.176 0.068 0.041
-0.000 -0.203 -0.112 0.007 -0.003
-0.009 0.043 0.104 0.043 -0.069
-0.065 0.007 -0.066 -0.022 -0.033
0.001 0.016 -0.012 0.010 0.008
0.012 0.002 -0.020 0.023 -0.104

-0.159
-0.083
0.085
-0.041
-0.012
-0.019
0.003
0.017

Fitted

Si les estimations semblent signicative (compte tenu du niveau de la T -stat ), le rsidu ne semble pas tre un bruit
blanc. Ltape suivante est donc daugmenter le nombre de paramtres.
9.2.3

Estimation des paramtres dune modlisation ARIM A (2; 1; 2)

Lestimation donne les rsultats suivants (la constante tant l aussi non signicative),

1 0:564 L 0:125 L2 Yt = 1 0:238 L 0:461 L2 "t


(0:195)

(0: 141)

( 0:186)

LS // Dependent Variable is Y
Sample : 1960:01 1996:03
Included observations: 435
Convergence achieved after 11 iterations
Variable

Coefficient

Std. Error

T-Statistic

AR(1)
AR(2)
MA(1)
MA(2)

0.563991
0.125419
-0.238277
-0.461184

0.195947
0.140515
0.1857620.155933

2.878290
0.892566
1.282700
-2.957584

R-squared
0.119815
Adjusted R-squared 0.113689
S.E. of regression 0.514649
Sum squared resid 114.1564
Log likelihood
-326.2718
Durbin -Watson stat 1.986863
Inverted AR Roots
Inverted MA Roots

.73
.81

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F- statistic
Prob(F-statistic)

Prob.
0.0042
0.3726
0.2003
0.0033
0.000892
0.546661
-1.319386
-1.281911
19.55661
0.000000

-.17
-.57

163

(0:156)

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Conditional Least Squares Estimation

Parameter
MU
MA1,1
MA1,2
AR1,1
AR1,2

2
0
4
-2
2

-6

65

70

75

80

Residual

85

90

Actual

T Ratio Lag
0.07
0
1.15
1
2.29
2
2.64
1
0.42
2

Autocorrelation Check of Residuals


To
Chi
Lag Square DF
6
17.05 2
12
43.83 8
18
86.23 14
24 111.58 20
30 118.83 26
36 124.99 32
42 125.20 38
48 131.58 44

-2
-4
60

Approx.
Std Error
0.02470
0.20740
0.17076
0.21504
0.14731

Constant Estimate = 0.00068555


Variance Estimate = 0.26632254
Std Error Estimate = 0.51606448
AIC
= 662.407167*
SBC
= 682.77239*
Number o f Residuals =
434
* Does not include log determinant.

-4

Estimate
0.0018425
0.23910
0.39060
0.56668
0.06125

95

Fitted

Prob
0.000
0.000
0.000
0.000
0.000
0.000
0.000
0.000

Autocorrelations
0.002 0.022 -0.029 -0.038 0.123 -0.144
-0.128 0.089 0.168 0.012 0.039 -0.079
-0.013 0.226 -0.181 0.072 0.035 0.059
0.008 -0.205 -0.105 0.000 -0.016 -0.047
-0.012 0.028 0.093 0.031 -0.070 -0.013
-0.070 -0.001 -0.071 -0.031 -0.035 -0.030
-0.004 0.008 -0.016 0.005 0.006 -0.006
0.013 -0.009 -0.023 0.019 -0.108 0.016

A titre dinformation, le modle avec constante scrit

2
2
1 0:565 L 0:129 L Y t = 0:004 + 1 0:239 L 0:465 L " t
(0:194)

(0:140)

(0:024)

(0:183)

(0:154)

Encore une fois, lhypothse de bruit blanc des rsidus est rejete, de part la prsence dautocorrlations signicativement non nulles.
9.2.4

Estimation des paramtres dune modlisation ARIM A (4; 1; 4)

Lestimation donne les rsultats suivants (la constante tant l aussi non signicative),

2
3
4
2
3
4
1 0:656 L + 0:563 L 0:386 L + 0:456 L Yt = 1 0:341 L + 0:254 L 0:179 L 0:732 L "t
( 0:102)

(0:118)

(0:118)

(0: 098)

( 0:079)

(0:084)

(0:083)

(0:077)

LS // Dependent Variable is Y
Sample: 1960:01 1996:03
Included observations: 435
Convergence achieved after 21 iterations
Variable

Coefficient

Std. Error

T-Statistic

AR(1)
AR(2)
AR(3)
AR(4)
MA(1)
MA(2)
MA(3)
MA(4)

0.656518
-0.562635
0.385954
0.456434
-0.341849
0.254008
-0.179371
-0.732405

0.101944
0.118552
0.118100
0.098600
0.079426
0.084136
0.083193
0.076658

6.440006
-4.745877
3.268017
4.629142
-4.304007
3.018997
-2.156092
-9.554205

R-squared
0.186601
Adjusted R-squared 0.173266
S.E. of regression 0.497051
Sum squared resid 105.4946
Log likelihood
-309.1089
Durbin- Watson stat 1.966731
Inverted AR Roots
Inverted MA Roots

.98
1.00

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)
.08+.97i .08 -.97i
.04 -.99i .04+.99i

Prob.
0.0000
0.0000
0.0012
0.0000
0.0000
0.0027
0.0316
0.0000
0.000892
0.546661
-1.379905
-1.304956
13.99393
0.000000

-.49
-.75

Conditional Least Squares Estimation

Parameter
MU
MA1,1
MA1,2
MA1,3
MA1,4
AR1,1
AR1,2
AR1,3
AR1,4

2
0
4
-2
2

-4

Estimate
0.0015377
-0.93247
-0.51607
0.33273
0.32631
-0.56650
-0.37411
0.29264
-0.05048

Approx.
Std Error
0.02530
0.20932
0.34370
0.33343
0.16789
0.21310
0.28332
0.25505
0.12451

T Ratio Lag
0.06
0
-4.45
1
-1.50
2
1.00
3
1.94
4
-2.66
1
-1.32
2
1.15
3
-0.41
4

Constant Estimate = 0.00261178


Variance Estimate = 0.24960404
Std Error Estimate = 0.49960389
AIC
= 638.20434*
SBC
= 674.86174*
Number o f Residuals =
434

-6

-2

Autocorrelation Check of Residuals


To
Lag
6
12
18
24
30
36

-4
60

65

70

75

Residual

80
Actual

85

90

95

Fitted

164

Chi
Square
0.00
25.70
53.83
75.58
82.92
88.91

DF
0
4
10
16
22
28

Prob
0.000
0.000
0.000
0.000
0.000
0.000

Autocorrelations
0.001 -0.006 -0.001 0.049 0.004 -0.100
-0.085 0.003 0.189 0.037 -0.029 -0.016
-0.013 0.184 -0.123 0.045 0.007 0.105
-0.038 -0.192 -0.082 -0.020 -0.017 -0.041
-0.017 0.032 0.087 0.036 -0.074 -0.005
-0.060 -0.013 -0.075 -0.019 -0.050 -0.021

Sries temporelles : thorie et applications

9.2.5

Arthur CHARPENTIER

Estimation des paramtres dune modlisation ARIM A (8; 1; 2)

Lestimation donne les rsultats suivants,


LS // Dependent Variable is Y
Sample: 1960:01 1996:03
Included observations: 435
Convergence achieved after 6 iterations
Variable

Coefficient

Std. Error

T-Statistic

Prob.

AR(1)
AR(2)
AR(3)
AR(4)
AR(5)
AR(6)
AR(7)
AR(8)
MA(1)
MA(2)

0.832927
-0.713119
0.227474
-0.182781
0.196717
-0.326733
0.085217
0.063868
-0.506487
0.375754

0.234792
0.268505
0.128585
0.087076
0.076248
0.089358
0.115162
0.087090
0.232037
0.223857

3.547511
-2.655889
1.769058
-2.099087
2.579957
-3.656453
0.739972
0.733359
-2.182785
1.678544

0.0004
0.0082
0.0776
0.0364
0.0102
0.0003
0.4597
0.4637
0.0296
0.0940

R-squared
0.205297
Adjusted R- squared 0.188468
S.E. of regression 0.492460
Sum squared resid 103.0698
Log likelihood
-304.0513
Durbin -Watson stat 1.997998

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F- statistic
Prob(F-statistic )

0.000892
0.546661
-1.393963
-1.300277
12.19898
0.000000

Conditional Least Squares Estimation


Parameter
MU
MA1,1
MA1,2
AR1,1
AR1,2
AR1,3
AR1,4
AR1,5
AR1,6
AR1,7
AR1,8

2
0
4
-2
2

-4

Estimate
0.0013416
0.48361
-0.30774
0.80989
-0.63535
0.19796
-0.16464
0.19163
-0.30877
0.06239
0.09180

Constant Estimate =
Variance Estimate =
Std Error Estimate =
AIC
=
SBC
=
Number of Residuals=

-6

-2

Approx.
Std Error
0.02589
0.24886
0.24844
0.24937
0.29763
0.13780
0.08924
0.07493
0.09036
0.11887
0.09070

T Ratio
0.05
1.94
-1.24
3.25
-2.13
1.44
-1.84
2.56
-3.42
0.52
1.01

Lag
0
1
2
1
2
3
4
5
6
7
8

0.00101303
0.24414457
0.49410988
630.559134*
675.362624*
434

Autocorrelation Check of Residuals

-4
60

65

70

75

Residual

9.2.6

80

85

Actual

90

95

Lag
12
24
36

Fitted

Square
8.79
56.98
67.16

To
Chi
Autocorrelations
DF
Prob
2 0.012 0.038 -0.018 -0.014 -0.013 0.125 -0.022
14 0.000 -0.060 -0.157 -0.076 -0.017 -0.015 -0.042
26 0.000 -0.069 -0.013 -0.059 -0.001 -0.059 -0.061

Estimation des paramtres dune modlisation ARIM A (8; 1; 4)

Lestimation donne les rsultats suivants,


LS // Dependent Variable is Y
Sample: 1960:01 1996:03
Included observations: 435
Convergence achieved after 10 iterations
Variable

Coefficient

Std. Error

T-Statistic

AR(1)
AR(2)
AR(3)
AR(4)
AR(5)
AR(6)
AR(7)
AR(8)
MA(1)
MA(2)
MA(3)
MA(4)

0.453658
-0.768228
0.313455
-0.792703
0.334490
-0.366035
-0.017904
0.035879
-0.111388
0.562973
-0.136900
0.630228

0.145520
0.135070
0.110000
0.113391
0.076348
0.073980
0.076594
0.074208
0.137724
0.130136
0.092114
0.092707

3.117492
-5.687621
2.849606
-6.990908
4.381140
-4.947751
-0.233757
0.483495
-0.808774
4.326037
-1.486189
6.798074

R-squared
0.227772
Adjusted R-squared 0.207691
S.E. of regression 0.486593
Sum squared resid 100.1548
Log likelihood
-297.8114
Durbin- Watson stat 2.002816

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwartz criterion
F-statistic
Prob(F-statistic)

Prob.
0.0019
0.0000
0.0046
0.0000
0.0000
0.0000
0.8153
0.6290
0.4191
0.0000
0.1380
0.0000
0.000892
0.546661
-1.413457
-1.301034
11.34236
0.000000

165

Sries temporelles : thorie et applications

9.2.7

Arthur CHARPENTIER

Choix du modle

Les dirents critres sont

0:515
0:515
0:497
0:492
0:487

ARIM A (1; 1; 1)
ARIM A (2; 1; 2)
ARIM A (4; 1; 4)
ARIM A (8; 1; 2)
ARIM A (8; 1; 4)

R2
0:113
0:120
0:186
0:205
0:228

R
0:111
0:114
0:173
0:188
0:208

F -stat
55:082
19:556
13:994
12:199
11:342

AIC
1:3207
1:3193
1:3049
1:3939
1:4134

Aucun modle ne semble vraiment bien modliser la srie. En fait, aucun modle de type ARM A ne pourra
prendre en compte le pic de volatilit au dbut des annes 80. En fait, nous le verrons par la suite, les modles ARCH
permettent de prendre en compte ce genre de comportement.

9.3

Application des donnes simules

Considrons dsormais la courbe suivante, reprsentant des donnes mensuelles, sur la priode Janvier 1990-Janvier
2001.
4
2
0
-2
-4
-6
90

91

92

93

94

95

96

97

98

99

00

01

Au vu de lallure de la srie ( gauche) et de son corrlogramme ( droite), on peut armer que le processus Xt
est stationnaire. Nous allons donc essayer de modliser Xt laide dun processus ARM A (p; q). Au regard de
lautocorrlogramme partiel, une modlisation laide dun processus AR (2) semblerait possible. Les sorties cidessous correspondent lestimation des paramtres dun processus AR (2), respectivement avec et sans constante.
La constante ne semblant pas signicative, on peut retenir lide dun modle AR (2) sans constante.

On peut faire plusieurs remarques sur cette estimation :


- les paramtres sont signicatifs,
- le modle est valid par le test de Fisher (statistique F valant 146 )
- le Durbin-Watson est proche de 2 : on rejette lhypothse dautocorrlation lordre 1 des rsidus. Au regard
de lautocorrlogramme des rsidus, prsent ci-dessous, on peut en revanche noter que les rsidus sont autocorrls
lordre 12.

166

Sries temporelles : thorie et applications

Arthur CHARPENTIER

4
2
0
4

-2

-4
-6

0
-2
-4
91

92

93

94

Residual

95

96

97

Actual

98

99

00

Fitted

Sur cette srie des rsidus b"t, il est possible de tester un modle AR (12),

dont lautocorrlogramme des rsidus suit un bruit blanc : lhypothse de modle AR (12) pour b
" t. Il est aussi possible
de tester un modle M A (12),

Cette modlisation M A (12) est alors valide. Nous avons donc vu quen crivant (L) Xt = "t le processus "t pouvait
se mettre sous la forme " t = (L) t , et donc (L) Xt = (L) t :
On peut alors tester un modle ARM A (2; 1) ; avec 2 retards sur la composante AR et un terme dordre 12
(uniquement) pour la composante M A. Lestimation est donne ci-dessous, en haut gauche et les autres graphiques
donnent des informations sur les rsidus,
4
2
0
-2

-4
2

-6

0
-2
-4

91

92

93

94

Residual

167

95

96

97

Actual

98

99
Fitted

00

Sries temporelles : thorie et applications

Arthur CHARPENTIER

20
Series: Residuals
Sample 1990:03 2001:01
Observations 131

15

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

10

-0.021336
0.011268
3.534483
-2.516675
0.960506
0.270334
3.925844

Jarque-Bera 6.274403
Probability
0.043404
0
-2

-1

Le modle semble tre valid. On peut dailleurs noter que les racines des polynmes AR et M A sont distinctes deux
deux, et lextrieur du disque unit (E V iews donne linverse des racines, qui doivent tre lintrieur du disque
unit).
Lautocorrlogramme aurait aussi pu suggrer un modle avec un retard dordre 11 sur la srie initiale,

Comme on le voit sur la sortie (ci-dessus gauche) la composante AR dordre 11 est signicativement non nulle.
Toutefois, comme auparavant, les rsidus ne suivent pas un bruit blanc, lautocorrlation partielle dordre 12 tant
signicativement non nulle, on peut alors tester un modle AR (12) sur cette srie. Le modle pouvant tre retenu, on
peut alors modliser la srie Xt par un quation de la forme
Xt = Xt1 + Xt 2 + Xt 11 + "t "t12
Toutefois, la sortie ci-dessous gauche montre que la composante autocorrgressive dordre 11 nest pas signicative.
On en revient alors considrer le modle prcdant, t = Xt1 + Xt2 + "t "t12

168

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Les sorties ci-dessous correspondent lestimation du mme modle sous SAS,


ARIMA Procedure
Lag
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
2.765782
1.00000 |
|********************|
1.773621
0.64127 |
. |*************
|
0.435508
0.15746 |
.
|*** .
|
-0.347034
-0.12547 |
. ***|
.
|
-0.649323
-0.23477 |
*****|
.
|
-0.251108
-0.09079 |
. **|
.
|
0.300811
0.10876 |
.
|** .
|
0.667198
0.24123 |
.
|*****
|
0.654841
0.23677 |
.
|*****
|
0.197798
0.07152 |
.
|*
.
|
-0.371829
-0.13444 |
. ***|
.
|
-0.976420
-0.35304 |
*******|
.
|
-1.259860
-0.45552 |
*********|
.
|
-0.645783
-0.23349 |
.*****|
.
|
0.018853
0.00682 |
.
|
.
|
0.481153
0.17397 |
.
|*** .
|
0.751913
0.27186 |
.
|*****.
|
0.409392
0.14802 |
.
|*** .
|
-0.149954
-0.05422 |
.
*|
.
|
-0.601785
-0.21758 |
. ****|
.
|
-0.612205
-0.22135 |
. ****|
.
|
-0.088030
-0.03183 |
.
*|
.
|
0.434812
0.15721 |
.
|***
.
|
0.614522
0.22219 |
.
|**** .
|
0.422268
0.15268 |
.
|***
.
|
"." marks two standard errors

Inverse Autocorrelations

Std
0
0.086711
0.117059
0.118640
0.119634
0.123049
0.123552
0.124270
0.127742
0.131000
0.131293
0.132324
0.139226
0.150014
0.152722
0.152724
0.154207
0.157769
0.158810
0.158949
0.161173
0.163443
0.163489
0.164622
0.166862

Lag Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1
-0.77526 |
****************| .
|
2
0.52645 |
. |***********
|
3
-0.40775 |
********| .
|
4
0.36394 |
. |*******
|
5
-0.31446 |
******| .
|
6
0.24728 |
. |*****
|
7
-0.25439 |
*****| .
|
8
0.23272 |
. |*****
|
9
-0.19539 |
****| .
|
10
0.19393 |
. |****
|
11
-0.25485 |
*****| .
|
12
0.33300 |
. |*******
|
13
-0.23752 |
*****| .
|
14
0.10711 |
. |**.
|
15
-0.01011 |
. | .
|
16
-0.02764 |
. *| .
|
17
0.02954 |
. |* .
|
18
-0.05536 |
. *| .
|
19
0.03948 |
. |* .
|
20
-0.01601 |
. | .
|
21
0.03232 |
. |* .
|
22
-0.04912 |
. *| .
|
23
0.02409 |
. | .
|
24
0.00858 |
. | .
|

ARIMA Estimation Optimization Summary

Autocorrelation Check for White Noise


To
Lag
6
12
18
24

Chi
Square
72.01
140.87
168.83
200.13

DF
6
12
18
24

Estimation Method:
Maximum Likelihood
Parameters Estimated:
3
Termination Criteria:
Maximum Relative Change in Estimates
Iteration Stopping Value:
0.001
Criteria Value:
0.00048293
Alternate Criteria:
Relative Change in Objective Function
Alternate Criteria Value:
4.91058E-6
Maximum Absolute Value of Gradient:
0.04331511
R-Square (Relative Change in Regression SSE) from Last Iteration
Step:
0.00032913
Objective Function:
Log Gaussian Likelihood
Objective Function Value:
-188.10066
Marquardt's Lambda Coefficient:
1E-8
Numerical Derivative Perturbation Delta:
0.001
Iterations:
3

Autocorrelations
Prob
0.000 0.641 0.157 -0.125 -0.235 -0.091 0.109
0.000 0.241 0.237 0.072 -0.134 -0.353 -0.456
0.000 -0.233 0.007 0.174 0.272 0.148 -0.054
0.000 -0.218 -0.221 -0.032 0.157 0.222 0.153
ARIMA Procedure

Conditional Least Squares Estimation


Iteration
SSE
0
133.59976
1
130.16169
2
130.10177
3
130.10044
4
130.10042

MA1,1
0.4555
0.6174
0.5998
0.6024
0.6020

AR1,1
0.9177
0.9204
0.9180
0.9184
0.9183

AR1,2
-0.4310
-0.4411
-0.4457
-0.4452
-0.4452

Lambda
0.00001
1E-6
1E-7
1E-8
1E-9

R Crit
1
0.162007
0.02348
0.003393
0.000525

Maximum Likelihood Estimation


Parameter
MA1,1
AR1,1
AR1,2

Maximum Likelihood Estimation


Iter
0
1
2
3

Loglike
-188.11308
-188.10091
-188.10067
-188.10066

MA1,1
0.6020
0.5914
0.5931
0.5928

AR1,1
0.9183
0.9253
0.9252
0.9252

AR1,2
-0.4452
-0.4525
-0.4519
-0.4520

Lambda R Crit
0.00001
1
1E-6 0.01455
1E-7 0.002016
1E-8 0.000329

Estimate
0.59280
0.92523
-0.45195

Approx.
Std Error
0.08028
0.07630
0.07619

T Ratio
7.38
12.13
-5.93

Lag
12
1
2

Variance Estimate = 0.96749844


Std Error Estimate = 0.98361499
AIC
= 382.20133
SBC
= 390.872377
Number of Residuals=
133

L aussi, le modle est valid (avec des valeurs lgrement direntes des estimateurs, venant des mthodes de calculs
direntes sous SAS et E V iews). Le modle retenu est alors le suivant
Xt = 0:92523 Xt1 0:45195 Xt2 + " t 0:5928 " t12 o "t s BB (0; 0:984)
(0:0763)

(0:0762)

( 0:0803)

SAS donne galement des prvisions (avec intervalle de conance 90% ) de (Xt ). Ces prvisions ont t reprsentes sur le graphique ci-dessous droite,
ARIMA Procedure

Model for variable X1


No mean term in this model.

Autoregressive Factors
Factor 1: 1 - 0.92523 B**(1) + 0.45195 B**(2)
Moving Average Factors
Factor 1: 1 - 0.5928 B**(12)

Forecasts for variable X1


Obs
134
135
136
137
138
139
140
141
142
143
144
145

Forecast Std Error


1.1953
0.9836
1.7406
1.3400
1.4184
1.3978
0.7421
1.3984
0.1647
1.4156
0.1050
1.4275
0.0727
1.4293
-0.3245
1.4294
-0.6680
1.4302
0.2618
1.4306
0.5749
1.4307
0.2436
1.4307

Lower 95%
-0.7325
-0.8858
-1.3212
-1.9988
-2.6099
-2.6928
-2.7286
-3.1260
-3.4710
-2.5422
-2.2292
-2.5605

-2

Upper 95%
3.1232
4.3670
4.1579
3.4830
2.9392
2.9029
2.8740
2.4770
2.1351
3.0658
3.3790
3.0478

-4
-6

95

96

97
X
FORECAST

98

99

00

01

BORNE_SUP90
BORNE_INF90

Les graphiques ci-dessous montrent le processus (Xt ), sa prvision (avec intervalle de conance), et 1 puis 2 simulations

169

Sries temporelles : thorie et applications

Arthur CHARPENTIER

du processus prolong jusqu n 2001,


4

-2

-2

-4

-4

-6
95

96

97

98

X
SIMUL1
BORNE_INF90

99

00

-6
98:01

01

BORNE_SUP90
FORECAST

98:07

99:01

99:07

X
FORECAST
SIMUL1

00:01

00:07

01:01

01:07

SIMUL2
BORNE_INF90
BORNE_SUP90

Comme on peut le noter, la prvision laide de processus ARM A donne de relativement bons rsultats.

9.4

Modlisation du trac autoroutier

Les deux sries suivantes correspondent du trac automobile, sur deux autoroutes franaises, lA7 et lA13, en
donnes mensuelles,
80000
70000
60000
50000
40000
30000
20000
10000
1990

1991

1992

1993

A007

1994

1995

1996

A013

Les deux sries sont certes, trs corrles entre elles (non dvelopperont ce point dans la partie suivante, sur la
modlisation des sries multivaries ), mais elles sont surtout
cycliques, comme le montrent les autocorrlogrammes.

Nous allons donc travailler ici sur les sries Y t = 1 L12 Xt = Xt Xt12 ,
20000
15000
10000
5000
0
-5000
-10000
-15000
1990

1991

1992
DA007

9.4.1

1993

1994

1995

1996

DA01 3

Modlisation du trac sur lautoroute A7

Modlisation laide dun processus AR (12)


170

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Tentons tout dabord une modlisation ne faisant intervenir que le retard lordre 12, on obtient alors
20000

Dependent Variable: DA007


Method: Least Squares
Date: 07/18/03 Time: 07:44
Sample(adjusted): 1991:09 1996:09
Included observations: 61 after adjusting endpoints
Convergence achieved after 3 iterations

10000
15000

Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(12)

664.4503
-0.349683

331.7515
0.119648

2.002856
-2.922612

0.0498
0.0049

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.126465
0.111659
3496.734
7.21E+08
-583.2731
2.226113

Inverted AR Roots

.88+.24i
.24+.88i
-.65+.65i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F -statistic)
.88 -.24i
.24 -.88i
-.65 -.65i

.65 -.65i
-.24 -.88i
-.88 -.24i

10000
-10000

5000

645.1803
3709.991
19.18928
19.25849
8.541663
0.004914

-20000

-5000
-10000
-15000

.65 -.65i
-.24+.88i
-.88+.24i

1992

1993
Residual

1994
Actual

1995

1996

Fitted

La constante et la composante AR (12) sont ici toutes deux signicatives. De plus, lautocorrlogramme des rsidus
(prsent ci-desssous gauche) ainsi que le test de Box Pierce conduiensent accepter lhypothse de bruit blanc (au
sens L2 ) des rsidus. Nanmoins, si lon regarde la srie des rsidus, prsente ci-dessus droite, on peut noter que
certains pics periodiques apparaissent, mais le signe de ces pics ne permet pas de mettre en avant une autocorrlation
ventuelle de ces rsidus. Mais si lon regarde lautocorrlogramme du carr des rsidus, on peut noter que lhypothse
de bruit blanc au sens fort est rejeter : les carrs des rsidus sont clairement autocorrls. Nous sommes ici en
prsence dun eet GARC H sur les rsidus, notion que nous tudierons plus en dtails par la suite.

9.4.2

Modlisation du trac sur lautoroute A13

Modlisation par un bruit blanc

Compte tenu de lautocorrlogramme de la srie dsaisonalise (i.e. Y t = 1 L12 Xt = Xt Xt12 ), lhypothse


de bruit blanc (au sens L2 ) est vrie, autrement dit, la srie (Yt ) est purement alatoire.
Modlisation laide dun processus ARMA (4; 4)

171

Sries temporelles : thorie et applications

Arthur CHARPENTIER

An damliorer la prvision, il peut tre intressant de tester un modle ARM A (4; 4) puisque ce sont les dernires
valeurs qui pourraient sembler signicatives sur les autocorrlogrammes.
Dependent Variable: DA013
Method: Least Squares
Date: 06/05/03 Time: 14:43
Sample(adjusted): 1991:01 1996:09
Included observations: 69 after adjusting endpoints
Convergence achieved after 22 iterations
Backcast: 1990:09 1990:12
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(1)
AR(2)
AR(3)
AR(4)
MA(1)
MA(2)
MA(3)
MA(4)

542.3256
0.231052
0.354618
0.260947
-0.378479
-0.222646
-0.480386
-0.207426
0.934617

255.2653
0.120712
0.112041
0.116229
0.121658
0.020711
0.023240
0.022297
0.026394

2.124557
1.914081
3.165075
2.245119
- 3.110998
- 10.75022
- 20.67077
- 9.303057
35.40974

0.0378
0.0604
0.0024
0.0285
0.0029
0.0000
0.0000
0.0000
0.0000

R- squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
Inverted AR Roots
Inverted MA Roots

0.340761
0.252862
1093.358
71725932
-575.8786
1.933998
.69+.31i
.83+.52i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F- statistic
Prob(F-statistic)

613.8261
1264.917
16.95300
17.24441
3.876750
0.000974

.69 - .31i
.83 - .52i

-.58 -.58i
-.72 -.66i

-.58+.58i
-.72+.66i

On peut noter que tous les retards semblent signicatifs, et le bruit associ vrie lhypothse de bruit blanc : un
modle ARM A (4; 4) convient. Toutefois, en toute rigueur, le premier retard de sa composante dautocorrlation
(AR(1)) ne passe pas le seuil de 5% : il est possible dessayer de lenlever de la rgression. On obtient alors
Dependent Variable: DA013
Method: Least Squares
Date: 06/05/03 Time: 14:46
Sample(adjusted): 1991:01 1996:09
Included observations: 69 after adjusting endpoints
Convergence achieved after 16 iterations
Backcast: 1990:09 1990:12
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(2)
AR(3)
AR(4)
MA(1)
MA(2)
MA(3)
MA(4)

520.8973
0.539645
0.270148
-0.404489
-0.120464
-0.660822
-0.103716
0.954459

242.9550
0.108087
0.101843
0.108105
0.013922
0.015333
0.013349
0.016257

2.144007
4.992716
2.652590
-3.741632
-8.652958
-43.09873
-7.769263
58.71185

0.0360
0.0000
0.0102
0.0004
0.0000
0.0000
0.0000
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat

0.308872
0.229562
1110.276
75195450
-577.5083
1.797891

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

613.8261
1264.917
16.97126
17.23028
3.894504
0.001440

Inverted AR Roots
Inverted MA Roots

.68 -.30i
.84+.53i

.68+.30i
.84 -.53i

-.68 -.54i
-.78 -.60i

-.68+.54i
-.78+.60i

o, cette fois-ci, tous les coecients sont signicatifs au seuil de 5%. Et l aussi, lhypothse de bruit blanc pour les
rsidus est valide. Les rsidus des deux rgressions sont prsents ci-dessous, de gauche droite,

2000

4000

4000

2000

2000

0
2000

-2000

1000

-2000

1000
-4000

-4000

-1000

-1000

-2000

-2000
-3000

-3000
1991

1992
Residual

1993

1994
Actual

1995

1991

1996

1992
Residual

Fitted

[A INSERER]

172

1993

1994
Actual

1995
Fitted

1996

Sries temporelles : thorie et applications

9.5

Arthur CHARPENTIER

Modlisation du nombre de victimes sur les routes

Considrons la srie suivante, reprsentant le nombre de victimes sur les routes, en France, en donnes mensuelles,
20000
19000
18000
17000
16000
15000
14000
13000
12000
11000

92

93

94

95

96

97

98

99

00

01

VICTIMES_ACCIDEN

avec la srie brute (Xt ) gauche, et son autocorrlogramme


droite. Cette srie prsentant clairement un comporte

ment saisonnier, nous allons tudier Y t = 1 L12 Xt = Xt Xt 12 ,


2000
1000
0
-1000
-2000

-3000

92

93

94

95

96

97

98

99

00

01

D_VICTIMES

En utilisant lauto corrlogramme de cette srie, nous allons modliser (Y t ) laide dun processus ARM A (p; q).
Modlisation laide dun processus AR (12)
Compte tenu de la forme de lautocorrlogramme, nous pouvons, par le principe de parcimonie, tenter une modlisation relativement simple, laide dun processus AR (12). Une modlisation laide dun polynme 1 L12 donne
les rsultats suivants,
Dependent Variable: D_VICTIMES
Method: Least Squares
Date: 07/18/03 Time: 06:59
Sample(adjusted): 1994:01 2001:11
Included observations: 95 after adjusting endpoints
Convergence achieved after 3 iterations

2000
1000
0

Variable

Coefficient

Std. Error

t-Statistic

Prob.

AR(12)

-0.252692

0.092678

-2.726572

0.0076

R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood

-0.092661
-0.092661
962.3526
87055511
-786.8877

Inverted AR Roots

.86+.23i
.23 -.86i
-.63 -.63i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
Durbin-Watson stat
.86 -.23i
.23+.86i
-.63 -.63i

.63 -.63i
-.23+.86i
-.86 -.23i

-387.5368
920.6434
16.58711
16.61399
0.808405

2000

-1000

1000

-2000

-3000

-1000

.63+.63i
-.23 -.86i
-.86+.23i

-2000
-3000

94

95

96
Res idual

97

98
Actual

99

00

01

Fitted

Le paramtre est eectivement signicatif, et le rsidu semble correspondre un bruit blanc (hypothse valide par
le test de Box Pierce), toutefois, la qualit de lajustement ne peut manifestement pas convenir. Lestimation dun
173

Sries temporelles : thorie et applications

Arthur CHARPENTIER

modle AR (12) complet (avec les 12 composantes ), en enlevant ensuite, une une, les composantes non-signicatives
(une des tapes tant propose droite)
Dependent Variable: D_VICTIMES
Convergence achieved after 3 iterations
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(1)
AR(2)
AR(3)
AR(4)
AR(5)
AR(6)
AR(7)
AR(8)
AR(9)
AR(10)
AR(11)
AR(12)

-403.1510
0.373193
-0.028210
0.041577
0.003752
-0.008166
0.012129
0.062211
-0.052965
0.133121
-0.075842
-0.011995
-0.357608

88.13528
0.100646
0.105584
0.104470
0.103359
0.103532
0.103316
0.104500
0.104848
0.105012
0.105460
0.104314
0.095975

- 4.574229
3.707971
- 0.267185
0.397978
0.036302
- 0.078870
0.117397
0.595317
- 0.505165
1.267679
- 0.719149
- 0.114987
- 3.726044

0.0000
0.0004
0.7900
0.6917
0.9711
0.9373
0.9068
0.5533
0.6148
0.2085
0.4741
0.9087
0.0004

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat

0.378505
0.287555
777.0825
49516291
-760.0861
1.851256

Inverted AR Roots

.93+.22i
.25 -.89i
-.58 -.64i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
.93 -.22i
.25+.89i
-.58+.64i

Dependent Variable: D_VICTIMES


Method: Least Squares
Date: 07/18/03 Time: 07:25
Sample(adjusted): 1994:01 2001:11
Included observations: 95 after adjusting endpoints
Convergence achieved after 3 iterations

-387.5368
920.6434
16.27550
16.62497
4.161668
0.000044

.69+.66i
-.23 - .87i
-.88+.27i

Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(1)
AR(3)
AR(7)
AR(9)
AR(10)
AR(12)

-404.4320
0.362837
0.031491
0.049055
0.112071
-0.083440
-0.355504

87.66986
0.090355
0.085447
0.083384
0.093093
0.092096
0.083454

- 4.613125
4.015707
0.368541
0.588299
1.203859
- 0.906003
- 4.259889

0.0000
0.0001
0.7134
0.5578
0.2319
0.3674
0.0001

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat

0.375645
0.333075
751.8479
49744218
-760.3042
1.826335

Inverted AR Roots

.93+.22i
.24+.88i
- .59+.65i

.69 - .66i
-.23+.87i
-.88 -.27i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
.93 -.22i
.24 -.88i
-.59 -.65i

.69 -.66i
- .21+.86i
- .88+.27i

-387.5368
920.6434
16.15377
16.34195
8.824230
0.000000
.69+.66i
-.21 -.86i
-.88 -.27i

Le modle nal, o toutes les composantes sont signicative comporte toujours le retard dordre 12, ainsi que le retard
dordre 1, ainsi que la constante, que nous avions omise auparavant,
Dependent Variable: D_VICTIMES
Method: Least Squares
Date: 07/18/03 Time: 07:26
Sample(adjusted): 1994:01 2001:11
Included observations: 95 after adjusting endpoints
Convergence achieved after 3 iterations
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(1)
AR(12)

-398.4806
0.367802
-0.370033

76.31964
0.086803
0.079309

-5.221207
4.237205
-4.665704

0.0000
0.0001
0.0000

R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin -Watson stat

0.359326
0.345398
744.8694
51044394
-761.5298
1.842573

Inverted AR Roots

.93 -.24i
.27+.88i
-.62+.65i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
.93+.24i
.27 -.88i
-.62 -.65i

-387.5368
920.6434
16.09536
16.17601
25.79936
0.000000

.69 -.65i
-.21+.88i
-.86 -.24i

.69+.65i
-.21 -.88i
-.86+.24i

Comme le montre le graphique de droite, lhypothse de bruit blanc des rsidus est valide par le test de Box Pierce.
De plus, la justement est nettement meilleur que dans le cas prcdant, comme le montre le graphique ci-dessous
gauche.
2000
1000
0
-1000
2000

-2000

1000

-3000

0
-1000
-2000
-3000
94

95

96
Residual

97

98
Actual

99

00

01

Fitted

Remarque 60 Au vu de lautocorrlogramme de (Y t ) on pourrait croire reconnaitre un processus


SARIM
A dordre

12 (cd secion sur les modles SARIM A). Mais sil lon direncie (Y t ) en notant Zt = 1 L12 Y t , on obtient
lautocorrlogramme prsent ci-dessus droite : la direnciation napporte rien.
Modlisation laide dun processus ARMA (12; 12)
174

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Compte tenu de la prsence dune autocorrlation partielle et dune autocorrlation signicatives lordre 12,
il pourrait tre possible, galement, de tester un modle ARM A (12; 12). On inclus pour cela les 24 retards, et la
constante, comme cela est fait ci-dessous, gauche,
Dependent Variable: D_VICTIMES
Backcast: 1993:01 1993:12
Variable

Coefficient

Std. Error

t -Statistic

Prob.

C
AR(1)
AR(3)
AR(4)
AR(5)
AR(7)
AR(8)
AR(11)
AR(12)
MA(3)
MA(4)
MA(5)
MA(7)
MA(8)
MA(11)
MA(12)

-305.0056
0.420150
-0.031261
0.275419
-0.113776
0.309327
-0.036742
-0.214746
-0.134458
0.058559
-0.368560
-0.063851
-0.428437
-0.225824
0.398335
-0.307490

99.72524
0.099681
0.109530
0.134000
0.118891
0.097592
0.101708
0.115885
0.109928
0.094135
0.115378
0.065686
0.090813
0.097233
0.111243
0.109088

-3.058459
4.214941
-0.285409
2.055372
-0.956980
3.169605
-0.361249
-1.853090
-1.223142
0.622072
-3.194377
-0.972065
-4.717804
-2.322506
3.580766
-2.818742

0.0030
0.0001
0.7761
0.0431
0.3415
0.0022
0.7189
0.0676
0.2249
0.5357
0.0020
0.3340
0.0000
0.0228
0.0006
0.0061

R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.511111
0.418285
702.1773
38951181
-748.6864
1.989013

Inverted AR Roots

.93+.17i
.16+.84i
-.65 -.39i
.99
.57 -.76i
-.36+.82i

Inverted MA Roots

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F -statistic)
.93 -.17i
.16 -.84i
-.65+.39i
.62 -.28i
.01+.99i
-.85+.48i

.65 -.69i
-.21+.88i
-.67 -.17i
.62+.28i
.01 -.99i
-.85 -.48i

-387.5368
920.6434
16.09866
16.52879
5.506068
0.000000
.65+.69i
-.21 -.88i
-.67+.17i
.57+.76i
-.36 -.82i
-.99

Aprs limination, une une, des variables non signicatives, on aboutit aumodle suivant,
Dependent Variable: D_VICTIMES
Method: Least Squares
Date: 07/18/03 Time: 19:56
Sample(adjusted): 1993:12 2001:11
Included observations: 96 after adjusting endpoints
Convergence achieved after 10 iterations
Backcast: 1992:12 1993:11
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(1)
AR(4)
AR(7)
AR(11)
MA(4)
MA(7)
MA(11)
MA(12)

-361.4454
0.323792
0.221787
0.360634
-0.223918
-0.243286
-0.367712
0.290547
-0.464710

70.05417
0.083297
0.123863
0.095223
0.118132
0.126263
0.080979
0.127322
0.081240

-5.159513
3.887199
1.790575
3.787262
-1.895485
-1.926817
-4.540834
2.281979
-5.720233

0.0000
0.0002
0.0768
0.0003
0.0613
0.0573
0.0000
0.0249
0.0000

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.432562
0.380384
723.5614
45548073
-763.5748
1.627925

Inverted AR Roots

.88 -.10i
.08 -.84i
-.77+.43i
.97
.52+.79i
-.39 -.86i

Inverted MA Roots

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F -statistic)
.88+.10i
.08+.84i
-.77 -.43i
.74 -.39i
-.00 -.96i
-.87 -.48i

-379.4479
919.2082
16.09531
16.33572
8.290081
0.000000

.61 -.70i
-.24 -.83i
-.80
.74+.39i
-.00+.96i
-.87+.48i

.61+.70i
-.24+.83i
.52 -.79i
-.39+.86i
-.96

Nanmoins, on peut noter que les rsidus associs ne suivent pas un bruit blanc, comme le montre lautocorrlogramme
ci-dessus droite. Les graphiques associs sont prsents ci-dessous gauche. En liminant les variables non signicatives dans le modle prcdant (p-valeur suprieure 5%), on obtient la sortie ci-dessous droite,
Dependent Variable: D_VICTIMES
Method: Least Squares
Date: 07/18/03 Time: 19:57
Sample(adjusted): 1993:08 2001:11
Included observations: 100 after adjusting endpoints
Convergence achieved after 15 iterations
Backcast: 1992:08 1993:07

2000
1000
0
-1000
2000

-2000

1000

-3000

-1000
-2000
95

96
Residual

97

98

99

Actual

00

Coefficient

Std. Error

t- Statistic

Prob.

C
AR(1)
AR(7)
MA(7)
MA(12)

-285.5781
0.429447
0.212892
-0.240872
-0.656765

58.35439
0.077826
0.092498
0.075975
0.075974

-4.893858
5.518073
2.301586
-3.170413
-8.644549

0.0000
0.0000
0.0235
0.0020
0.0000

R- squared
Adjusted R - squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin- Watson stat
Inverted AR Roots

94

Variable

01

Inverted MA Roots

Fitted

175

0.499844
0.478785
678.9883
43797389
-791.3896
1.969953
.88
- .12+.77i
.99
.51+.84i
- .46 -.84i

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)
.57 -.61i
.57+.61i
-.67+.34i
-.67 - .34i
.81+.48i
.81 -.48i
-.02+.97i
-.02 - .97i
-.86 - .48i
-.86+.48i

-408.9800
940.4888
15.92779
16.05805
23.73516
0.000000
-.12 - .77i
.51 -.84i
-.46+.84i
- .94

Sries temporelles : thorie et applications

Arthur CHARPENTIER

cest dire que (Y t) est modlisable par un processus ARM A (7; 12) : En eet, lhypothse de bruit blanc des rsidus
est valide,
2000
1000
0
-1000
-2000

2000

-3000

1000
0
-1000
-2000
94

95

96

97

Residual

98
Actual

99

00

01

Fitted

[A CONTINUER]

9.6

Modlisation du taux de croissance du P I B amricain

La srie suivante correspond au taux de croissante trimestriel du P IB amricain.entre 1948 et 1991,


0.06
0.04

0.02
0.00
-0.02

-0.04

50

55

60

65

70

75

80

85

90

GNP_US

Compte tenu de la forme des autocorrlations, il est possible de tester un modle AR (3), i.e.
Dependent Variable: GNP_US
Method: Least Squares
Date: 05/28/03 Time: 09:43
Sample(adjusted): 1948:1 1991:1
Included observations: 173 after adjusting endpoints
Convergence achieved after 3 iterations
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
AR(1)
AR(2)
AR(3)

0.007682
0.350924
0.180937
-0.144305

0.001229
0.076268
0.079722
0.076504

6.251827
4.601216
2.269604
-1.886233

0.0000
0.0000
0.0245
0.0610

R-squared
Adjusted R -squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.176968
0.162358
0.009894
0.016545
555.0799
2.019838

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

Inverted AR Roots

.44+.29i

.44 -.29i

0.007748
0.010811
-6.370866
-6.297957
12.11276
0.000000

-.52

Nous obtenons le modle suivant


Xt 0:35Xt1 0:18Xt2 + 0:14Xt3 = 0:007 + " t

176

Sries temporelles : thorie et applications

Arthur CHARPENTIER

En reprenant ce qui a t fait dans la partie (????) sur les modles AR (2), on peut noter que le polynme autorgressif
scrit

1 0:35L 0:18L2 + 0:14L3 = (1 + 0:52L) 1 0:87L + 0:27L2


o le second terme a des racines complexes conjusgues. On peut alors noter que la longueur moyenne du cycle
stochastique est alors de 10:83 trimestres, cest dire entre 2 ans et demi et 3 ans.

177

Vous aimerez peut-être aussi