Séries Chro Insea
Séries Chro Insea
Séries Chro Insea
Rappels.
Stationnarit.
Stationnarit stricte.
Parfois, on tudie la loi des chantillons
(Xt1 , Xt2 , . . . , Xtn ).
Lorsque les lois de (Xt1 , Xt2 , . . . , Xtn ) ne sont pas affectes par
translation dans le temps, on dit que le processus X est strictement
stationnaire :
(Xt1 , Xt2 , . . . , Xtn ) = (Xt1 +k , Xt2 +k , . . . , Xtn +k ).
Lorsque X est strictement stationnaire, toutes les observations ont
la mme loi :
(Xt ) = (Xt+k ).
Stationnarit faible.
Stationnarit faible.
Le processus X = (Xt )tZ est stationnaire si
1) lesprance est stable au cours du temps :
E(X1 ) = E(X2 ) = = E(Xt ) = m.
2) la variance est stable au cours du temps :
V (X1 ) = V (X2 ) = = V (Xt ) = 2 .
3) les covariances sont stables au cours du temps :
Cov(X1 , X1+k ) = Cov(X2 , X2+k ) = = Cov(Xtk , Xt )
= = Cov(Xt , Xt+k ) = = k .
Remarque.
Autocorrlations - Autocorrlogramme.
V (Xt )V (Xtk )
Exemple dautocorrlogramme.
ACF pour Trafic
1
+- 1,96/T ,5
0,5
0
-0,5
-1
0
10
15
20
25
30
35
40
retard
PACF pour Trafic
1
+- 1,96/T ,5
0,5
0
-0,5
-1
0
10
15
20
retard
25
30
35
40
Remarque.
1 0 := (0) = 1
2 1 h := (h) 1, h.
Estimation de m, 2 , 1 , 2 . . . .
Pour un processus stationnaire, m, 2 , 1 , 2 , . . . peuvent tre
estims de manire convergente :
m
=X=
2 =
T
1X
Xt m,
T t=1
T
1X
(Xt X)2 2 ,
T
t=1
1
T k
PT
T .
T .
X)(Xtk X)
k , T .
2
Ces quantits doivent tre interprtes avec prudence lorsque X
nest pas stationnaire.
k =
t=k+1 (Xt
T k
1 X
(Xt X)(Xt+k X) = k := (k),
T t=1
pour 0 k < T .
De manire analogue, on dfinit la fonction dautocorrlation
(0) pour |k| < T .
empirique par (k) = (k)/
Ces estimateurs sont biaiss mais asymptotiquement sans biais. Il
existe dautres estimateurs similaires de la fonction dautocovariance
possdant les mmes proprits asymptotiques ( par exemple en
remplaant 1/T par 1/(T k)), comme le prcdent.
Formules de Bartlett.
Formules de Bartlett.
Thorme :
Si X est un processus linaire, cest--dire sil satisfait
Xt =
= | |
E(4t )
[E(2t )]2
t Z,
lim nCov{
(h), (k)} = ( 3)(h)(k)
Autocorrlations partielles.
Dfinition
Les autocorrlations partielles sont les corrlations rsiduelles entre
Xt et Xth une fois enleve linfluence linaire des valeurs
intermdiaires Xt1 , . . . , Xth+1 . On note:
r(h) = Corr(Xt , Xth |Xt1 , . . . , Xth+1 ).
On montre que :
r(h) = ah,h ,
Remarque.
1 On pose: r0 = 1
2 1 rk 1, k.
3 rk = rk
+- 1,96/T ,5
0,5
0
-0,5
-1
0
10
15
20
25
30
35
40
retard
PACF pour Trafic
1
+- 1,96/T ,5
0,5
0
-0,5
-1
0
10
15
20
retard
25
30
35
40
(iii)
(ii)
Var(t ) = E2t = 2
Cov (t , t+h ) = 0 h, t Z, h 6= 0,
t Z,
0
1
2
ts(serie)
50
100
150
200
Time
Remarque.
i > 0.
Exemple 2 : suite.
Cov(Xt , Xt1 ) = Cov(t t1 , t1 t2 )
= Cov(t , t1 ) Cov(t , t2 )
Cov(t1 , t1 ) + 2 Cov(t1 , t2 )
= V (t1 ) = 2 ,
= Cov(t , t2 ) Cov(t , t3 )
Cov(t1 , t2 ) + 2 Cov(t1 , t3 )
= 0,
1
0
1
2
3
ts(serie)
50
100
150
200
Time
1
0
1
2
3
ts(serie)
50
100
150
200
Time
0 = 1
2
=
2
2
(1 + )
1 + 2
2 = 0
..
.
1 =
h = 0, h 2.
Toutes les autocorrlations sont nulles partir de lordre 2.
r0 = 1
r1 = 1 =
r2 =
1 + 2
2 21
1 21
0
1
1+ 2
1+ 2
o2
o2 =
(1 +
2 )2
2
1 + 2 + 4
(1 + 2 )
rh1 ,
1 + 2 + 4
h 2.
V (Xt ) = V (1 + 2 + + t )
= V (1 ) + V (2 ) + + V (t )
+ 2Cov(1 , 2 ) + 2Cov(1 , 3 ) + . . .
= 2 + 2 + + 2 = t 2
La marche alatoire nest pas stationnaire : sa variance est
explosive.
En revanche, laccroissement dune marche alatoire, cest--dire le
processus dfini par Xt Xt1 , est stationnaire (cest un bruit
blanc).
Si X est stationnaireP
et si les coefficients ai sont, absolument
sommables, tels que
i=0 |ai | < , alors le processus Y
dfini par :
X
ai Xti
Yt =
i=0
Proprit :
Lorsque X est stationnaire, son innovation est un bruit blanc.
Dcomposition de Wold-Cramr.
Si X est un processus stationnaire tel que : Linnovation de Xt la
date t :
lim E {Xt |Xtk , Xtk1 , . . . } = E(Xt ),
k
X
i ti
= m+
i=0
avec 0 = 1 et 1 + 21 + 22 + < .
X scrit sous forme moyenne-mobile infinie [M A()]
(=moving-average en anglais).
A(L)Xt = (1 a1 L a2 L2 ap Lp )Xt
= Xt a1 LXt a2 L2 Xt ap Lp Xt
A(L) =
ai Li
i=0
= a0 Xt + a1 LXt + a2 L2 Xt + + ap Lp Xt + . . .
X
ai Xti .
=
i=0
On a aussi :
L1 Xt = BXt = Xt+1
Lk Xt = B k Xt = Xt+k
B est appel oprateur avance.
Version de 2015 en cours damlioration ne pas diffuser
Processus AR(p).
On introduit le polynme
A(L) = 1 a1 L a2 L2 ap Lp
qui permet dcrire le modle autorgressif sous une forme trs
compacte :
Xt = a1 Xt1 + a2 Xt2 + + ap Xtp + t
(1 a1 L a2 L2 ap Lp )Xt = t
A(L)Xt = t
i = 1, 2, . . . , p.
1
.
a
Pour que X soit stationnaire, il faut donc que :
1
Xt1
| {z
}
+t = a(aXt2 + t1 ) + t
aXt2 +t1
2
= a Xt2 + at1 + t
= a2 (aXt3 + t2 ) + at1 + t
= a3 Xt3 + a2 t2 + at1 + t
..
.
= t + at1 + a2 t2 + + ak1 tk+1 + ak Xtk
X
i=0
ai Li
ai ti
i=0
ai L i
i=0
t .
ai L i .
i=0
xk )
xk
1
1 L .
xk
xk )1
1
1
=
xk 1 L
xk
1
1
1
=
1 L
xk
xk
X
1
1 i i
=
L.
xk
xk
i=0
" #
j
i
p+1
X
X
1
(1)
1
Lj
Li . . .
=
ap x1 xp
x1
xp
A1 (L) =
i=0
j=0
i Li .
i=0
Exemple 1.
Xt = 3Xt1 2Xt2 + t
Exemple 2.
1
3
Xt = Xt1 Xt2 + t
4
8
3
1
3
1
Xt Xt1 + Xt2 = t (1 L + L2 )Xt = t
4
8
4
8
Lquation caractristique est :
3
1
1 x + x2 = 0
4
8
Les solutions x1 = 2 et x2 = 4 sont strictement suprieures 1.
Le processus est stationnaire et le polynme (1 43 L + 81 L2 ) est
inversible.
(L) =
=
=
1
1
(L 2)(L 4)
=
8
1
1
8
1
1
1
1
8(L 2) (L 4) =
1 L
1 L
24
2
4
" #
X 1 j
X 1 i
8
Li
Lj
24
2
4
j=0
i=0
XX 1 i
1 j i+j X X 1
Li+j
L
=
2
4
2i+2j
1
3
1 L + L2
4
8
1
i=0 j=0
X
X
j=0 k=j
i=0 j=0
1
2k+j
Lk =
k
X
k=0 j=0
1
2k+j
3
7
Lk = 1 + L + L2 + . .
4
16
| {z }
k
Exemple 2.
k
X
X
1
7
3
Xt =
Lk t = t + t1 + t2 + . . . .
2k+j
4
16
k=0 j=0
Processus MA(q).
i = 1, 2, . . . , q.
i Xti .
i=1
i = 1, 2, . . . , p. Dans ce cas, on a :
Xt = A(L)1 B(L)t =
ci ti
i=0
i = 1, 2, . . . , q.
di Xti .
i=0
Processus AR(p) :
Les autocorrlations vrifient les quations de Yule-Walker :
h +
p
X
ai hi = 0,
i=1
h > 0.
h p + 1 et
rp = ap 6= 0.
Processus M A(q) :
Les autocorrlations sont nulles partir de lordre q + 1 :
q =
bq
6= 0
1 + b21 + b22 + + b2q
h = 0,
h q + 1.
Processus intgrs.
Dfinition
On dit que (Xt ) suit un modle ARIMA(p, d, q) si d Xt suit un
ARMA(p, q).
A(L)(1 L)d Xt = B(L)t ,
bruit blanc
Modles SARIMA.
Dcomposition classique des observations:
Xt = mt + St + vt ,
mt : composante dterministe
St : composante saisonnire de saison s
vt : composante alatoire stationnaire
Reprsentation qui implique que Xt Xts est stationnaire.
Modles SARIMA.
Motivation: Exemple avec des donnes mensuelles sur r annes :
Anne\ mois
1
2
..
.
1
X1
X13
..
.
2
X2
X14
..
.
X1+12(r1)
X2+12(r1)
...
...
...
...
...
12
X12
X24
..
.
X12r := Xn
Modles SARIMA.
Dune manire plus gnrale, pour une saison s:
(Ls )Xt = (Ls )ut .
(1)
Modles SARIMA.
Dfinition
On dit que (Xt ) suit un modle SARIMA(p, d, q)(P, D, Q)s de
priode s, si le processus diffrenci Yt = (1 L)d (1 Ls )D Xt est
un processus ARMA causal
A(L)(Ls )Yt = B(L)(Ls )t
"pr-traitement" :
Filtre : (1 L)d limine une ventuelle tendance
dterministe/marche alatoire (d = 0 ou 1)
Filtre : (1 Ls )D limine ventuellement la saison (D = 0 ou
1).
Dfinition
On dit que (Xt ) suit un modle SARMA(p, Ps , q, Qs ) de priode s,
si le processus diffrenci Yt = (1 Ls )Xt est un processus ARMA
causal
A(L)(Ls )Yt = B(L)(Ls )t
"pr-traitement" :
Filtre : (Ls ) et (Ls ) polynmes des coefficients saisonniers.
Filtre : A(L) et B(L) polynmes des coefficients non
saisonniers.
Diffrencier, ou s
Identifier le modle
Estimation du modle
Validation du modle
Choix du modle
V (t ) = 2 .
Estimation AR(p).
On peut montrer que Mp est inversible.
On dfinit un estimateur:
p1
p.
= M
Cet estimateur correspond au lestimateur des moindres carrs.
On a les rsultats suivants:
= + op (n1/2 )
1
p1 )
n 2 ( ) N (0, 2 M
E(2t ) = 2
p
X
i=1
ai Xti +
q
X
bj etj (),
j=1
n
Y
2
e ()
1
exp
t 2 .
2 )1/2
2
(2
t=1
n () =
2
log Ln ().
n
L
n(n 0 ) N (0, := 2J 1 ),
o J = J(0 ) (appele matrice dinformation de Fisher), avec
2
n () p.s..
n
J() = lim
n
X
t=h+1
t th
et (h) =
(h)
.
(0)
Validation du modle.
1) vrification de la blancheur de .
est non observable, on lapproche laide des rsidus t de
lestimation.
doit tre de moyenne nulle
H0 :
E() = 0.
Sous H0 : t = n N (0; 1).
On rejette H0 avec un risque = 5% lorsque la statistique t est
suprieure 1.96 en valeur absolue (|t| > 1.96).
Validation du modle.
Test individuel
doit tre non autocorrl
H0 :
(k) = 0.
Validation du modle.
Test global [Test portmanteau]
H0 :
m
X
2 (h)
h=1
Validation du modle.
m
X
(h)2
h=1
nh
Validation du modle.
En cas de non validation du modle ARMA(p, q) :
Essayer le modle ARMA(p + 1, q) ou le modle
ARMA(p, q + 1)
Ne pas ajuster un modle ARMA(p + 1, q + 1) (ce modle
nest pas identifi sous lhypothse de processus ARMA(p, q))
Retour la phase dindentification.
Validation du modle.
Hypothse nulle :
H0 :
R0 0 = r0 , o R0 est une matrice s0 k0 connue de rang
s0 et r0 est aussi un vecteur connu de dimension s0 , avec k0 le
nombre de paramtres estims.
Diverses approches asymptotiques: la procdure de Wald, celle du
multiplicateur de Lagrange encore appele du score ou de Rao-score
et la mthode du rapport de vraisemblance.
Statistique de Wald :
De la normalit asymptotique de 0 , on dduit que :
L
n R0 n r0 N 0, R0 R0 := R0 2J 1 R0 ,
)1 (R0 n r0 ),
Wn = n(R0 n r0 ) (R0 R
0
:= 2J1 est un estimateur convergent de .
o
Sous H0 , cette statistique suit une distribution de 2s0 .
Rejeter H0 quand Wn > 2s0 (1 ) pour un niveau de risque
asymptotique .
Statistique du LM :
Soit nc lEMV contraint sous H0 . Dfinissons le Lagrangien
L(, ) = n () (R0 r0 ),
o est de dimension s0 . Les conditions de premier ordre donnent
Sous
n c
R0 c = r0 .
( ) = R0 ,
n
n
H0 ,
n
N 0, 2(R0 J 1 R0 )1 ,
Statistique du LM :
La statistique du LM est
o1
n
2(R0 J1 R )1
LMn = n
0
=
n n c 1 n c
( )J
( ).
2 n
n
Statistique du LR :
Un dveloppement limit de Taylor nous montre que
o (1)
p
n n nc
= nJ 1 R0 ,
op (1)
nc ) J(n nc ) = LMn .
Cette
suit asymptotiquement une distribution
Ps0 statistique
2
i=1 i Zi o les Zi sont iid N (0, 1) et les 1 , . . . , s0 sont les
valeurs propres de
n
2 (n
2(p + q)
= 2 log(L) + 2(p + q).
n
log n
= 2 log(L)+2(p + q) log n.
n
Critres dinformation.
p,q
L est la vraisemblance.
2 dcroit On
Ide: Plus on complique le modle, plus
p,q
pnalise les modles les + compliqus.
lerreur moyenne e = T 1
PT
t=1 et ,
PT
t=1
| et |,
lerreur moyenne
P absolue en pourcentage
MAPE:= T 1 Tt=1 | et /Xt |,
P
le carr moyen des erreurs MSE:= T 1 Tt=1 e2t ,
P
la variance empirique de lerreur Ve (e) := T 1 Tt=1 (et e)2 .
Exemple AR(2).
XT +1 = a1 XT + a2 XT 1 + T +1
EL(XT +1 |XT , XT 1 , . . . ) = a1 XT + a2 XT 1
T (1) = a
X
1 XT + a
2 XT 1
XT +2 = a1 XT +1 + a2 XT + T +2
EL(XT +2 |XT , XT 1 , . . . ) = a1 EL(XT +1 |XT , XT 1 , . . . ) + a2 XT
T (2) = a
T (1) + a
X
1 X
2 XT
..
.
..
.
T (h 1) + a
T (h 2), h 3.
XT (h) = a
1 X
2 X
=
EL(XT +1 |XT , XT 1 , . . . ) = b1 T b2 T 1
T (1) = b1 T b2 T 1
X
XT +2 = T +2 b1 T +1 b2 T
T (2) = b2 T
X
..
.
. = ..
T (h) = 0, h 3.
X
Prvision.
Erreurs de prvision.
avec
A(L) = 1 a1 L ap Lp ,
B(L) = 1 b1 L bq Lq
Erreurs de prvision.
Erreurs de prvision.
A(L)Xt = B(L)t Xt = A1 (L)B(L)t ,
Xt = t + 1 t1 + 2 t2 + 3 t3 + . . . .
EL(Xt |Xth , Xth1 , . . . ) = h th +h+1 th1 +h+2 th2 +. . .
Donc
P(1, 96
< eT +h +
1 eT +h1 + +
h1 eT +1 < 1, 96
) 0, 95
et lintervalle de prvision pour la valeur future XT +h (au niveau
95%) est :
q
21 + +
2h1
).
(XT +h 1, 96 1 +
Cet intervalle a une largeur croissante avec h. Pour h fix, la
largeur ne dpend pas de t.
Prvision.
Remarques gnrales:
Si E(Xt ) = 6= 0 on rajoute un paramtre au modle pour
prendre en compte ce genre de situation.
Dans ce cas on ajoute aux prvisions.
Nous sommes dans un cas stationnaire, les prvisions se
rapprochent de mesure que lon prend k grand.
En pratique les paramtres sont inconnus On les remplace
par leurs estimations.