STATIONNAIRE
STATIONNAIRE
STATIONNAIRE
1) Définitions
O U
UD
• Un processus stochastique (ou aléatoire)
discret est une famille de variables aléatoires
O
indicées par t, noté {Xt : t ∈ Z}.
S
A S
• Une série chronologique x1, · · · , xn peut être
considérée comme une réalisation finie d’un
processus stochastique.
80
• Un processus {Xt : t ∈ Z} est Stationnaire
au Sens Large SSL (ou faiblement station-
naire) si
E(X2t) < ∞, ∀ t ∈ Z,
E(Xt) = µ, ∀ t ∈ Z,
O U
D
Cov(Xt, Xt+k) = γ(k), ∀ t, k ∈ Z.
U
O
• Le processus SSL le plus simple mais fon-
S
A S
damental est le processus bruit blanc faible
{at : t ∈ Z} défini par
E(at) = 0 ∀t∈Z
Var(at) = σa2 ∀t∈Z
Cov(at, at+k ) = 0 si k 6= 0
On notera {at} ∼ BB(0, σa2).
81
2) Fonctions d’autocovariance
et d’autocorrélation
délai k par
O U
• On définit la fonction d’autocovariance de
UD
γ : Z → R
S O
k 7→ γ(k) = Cov(Xt, Xt+k )
A S
• On définit la fonction d’autocorrélation par
ρ : Z → [−1, 1]
γ(k)
k →
7 ρ(k) =
γ(0)
82
3) Estimation de γ(k) et ρ(k)
O U
But : On cherche à estimer les paramètres
UD
µ, γ(k) et ρ(k)
O
sachant qu’on observe x1, ..., xn.
S
A S
• Un estimateur de µ est la moyenne em-
pirique
1 Xn
b=x=
µ xt .
n t=1
83
• Un estimateur de γ(k) est
−k
1 nX
γ̂(k) = (xt − x)(xt+k − x), 0 ≤ k ≤ n − 1 .
n t=1
échantillonnale ou empirique.
O U
{γ̂(k), k ∈ Z} est dite fonction d’autocovariance
UD
• Un estimateur de ρ(k) est
S O
ρ̂(k) =
γ̂(k)
, 0≤k≤K.
A S γ̂(0)
• Le graphe de ρ(k)
b en fonction de k est dit
corrélogramme.
84
II) PROCESSUS MOYENNE MOBILE
Xt = θ0 + at − θ1at−1 − · · · − θqat−q
O U (∗)
UD
est un processus moyenne mobile d’ordre q,
noté MA(q), où
S O
A S
{at} ∼ BB(0; σa2), q ∈ N, θi ∈ R et θq 6= 0.
En posant
Xt = θ0 + θ(B)at .
θ(B) est dit polynôme moyenne mobile.
85
Remarque : On a
E(Xt) = θ0 = µ.
En posant
Yt = Xt − µ,
on se ramène au modèle MA(q) centré,
Yt = θ(B)at.
O U
Dans tout ce qui suit, on supposera le proces-
sus {Xt} centré
UD
Xt = θ(B)at .
Théorème
S O
• Un processus MA(q ) est stationnaire.
A S
• Si θ(B) est inversible, le processus MA(q)
admet une représentation AR(∞) définie
par :
at = θ(B)−1Xt =
X
πi Xt−i .
i≥0
86
2) Fonction d’autocorrélation
O U
D
q
U
2 σ 2,
X
γ(0) = 1 + θ .
i a
O
i=1
S
q−k
S
θiθi+k σa2, pour 1 ≤ k < q.
X
γ(k) = −θ +
k
A
γ(q) = −θ q σa
2,
i=1
γ(k) = 0, pour k ≥ q + 1.
87
Propriété caractéristique d’un MA(q)
Conséquence
UD
O
On pourra détecter un processus MA(q) au vu
S S
du corrélogramme, qui présentera donc des au-
tocorrélations nulles à partir du rang q + 1.
A
Exemple
Simuler 100 observations de :
Xt = at − 0.3 at−1.
Commenter le corrélogramme.
88
Le théorème suivant donne la propriété car-
actérisant les processus moyennes mobiles ainsi
que la distribution asymptotique des ρ̂(k).
A S
ρ(k)
b
2
≈ N 0, σρb(k)
avec
2 1 2 2
σρb(k) ' 1 + 2 ρb (1) + · · · + 2 ρb (q) .
n
89
III) PROCESSUS AUTO-REGRESSIF
U
Xt = φ0 + at + φ1Xt−1 + φ2Xt−2 + · · · + φpXt−p
O
AR(p), où
UD
est un processus auto-régressif d’ordre p, noté
S O
{at} ∼ BB(0; σa2), p ∈ N, φi ∈ R et φp 6= 0.
A S
En posant
φ(B)Xt = φ0 + at .
U
1. Si {Xt} est stationnaire, alors
O
φ0 = µ(1 − φ1 − · · · − φp) .
D
O U
2. En posant Yt = Xt − µ, on peut se ramener
au modèle AR(p) centré
S S φ(B)Yt = at.
φ(B)Xt = at .
91
Théorème
⇐⇒
O U
D
le polynôme φ(B) est inversible.
U
S O
Dans ce cas, il existe une représentation MA(∞)
de ce processus définie par
A S
Xt = φ(B)−1at =
X
ψi at−i .
i≥0
92
2) Fonction d’autocorrélation
O U
Xt = φ1Xt−1 + · · · + φpXt−p + at. (1)
Xt−k avec k ≥ 1
UD
En multipliant chacun des membres de (1) par
S O
Xt−k Xt = φ1Xt−k Xt−1+· · ·+φpXt−k Xt−p+Xt−k at,
A S
et en prenant l’espérance mathématique des
deux membres, on a
93
Remarque
• E(at Xt−k ) = 0 ∀k ≥ 1 .
⇔ Xt−k = φ(B)−1at−k
O U
UD X
ψi B iat−k
O
⇔ Xt−k =
S
i≥0
A S
Ainsi
⇔ Xt−k =
X
i≥0
ψi at−k−i.
X
E(at Xt−k ) = ψi E(at at−k−i) = 0.
i≥0
94
Proposition
O U
Les autocorrélations d’un processus AR(p) SSL
UD
O
sont solutions de l’équation récurrente
S
A S
ρ(k) = φ1ρ(k − 1) + · · · + φpρ(k − p), k≥1.
95
Variance d’un AR(p) : On a
O U
E(Xt2) = φ1E(XtXt−1)+· · ·+φpE(XtXt−p)+E(Xtat).
Ce qui donne
UD
γ(0) = φ1γ(1) + · · · + φpγ(p) + σa2.
S O
S
En divisant par γ(0), on a
A 1 = φ1ρ(1) + · · · + φpρ(p) +
σa2
.
γ(0)
Ainsi
σa2
γ(0) = .
1 − φ1ρ(1) − · · · − φpρ(p)
96
3) Système de Yule-Walker
O U
ρ(k) = φ1ρ(k − 1) + · · · + φpρ(k − p), k ≥ 1. (2)
En écrivant (2) pour k = 1, 2, · · · , p, on obtient
D
un système de p équations à p inconnues :
U
O
ρ(1) = φ1ρ(0) + · · · + φpρ(p − 1)
S
S
ρ(2) = φ1ρ(1) + · · · + φpρ(p − 2)
A
.
..
ρ(i) = φ1ρ(i − 1) + · · · + φpρ(p − i)
...
ρ(p) = φ1ρ(p − 1) + · · · + φpρ(0).
97
Ce système est connu sous le nom du système
d’équations de Yule-Walker.
· · · ρp−2 ρp−1
1 ρ1 φ1
ρ1
...
1
...
···
...
ρp−3 ρp−2
...
...
O
φ2U
...
D
p−2 ρp−3 · · ·
ρ 1 ρ1 φp−1
U
ρp−1 ρp−2 · · · ρ1 1 φp
S O
ρ1
A S
=
ρ2
...
.
ρp−1
ρp
O U
1. En pratique les autocorrélations ρ(k) sont
inconnues, on les remplace par les auto-
UD
corrélations échantillonales ρ̂(k).
S O
paramètres autorégressifs. Les φ̂i sont dits
estimateurs de Yule-Walker
A S
2. Le système de Yule-Walker peut être résolu,
par exemple, par la méthode de Cramer.
99
4) Fonction d’autocorrélation partielle
partielle.
O U
qui conduit à introduire la notion d’autocorrélation
UD
Définition . Soit {Xt} un processus SSL.
S O
On appelle autocorrélation partielle de délai
A S
k le cœfficient de corrélation partielle entre
Xt−k et Xt en éliminant l’influence des vari-
ables Xt−k+1, · · · , Xt−1.
100
On montre que les φkk peuvent s’obtenir en
fonction des ρ(k) à l’aide des formules suiv-
antes
1 ρ1 ρ2
O U
· · · ρk−2 ρ1
ρ1
...
UD 1
...
ρ1
...
· · · ρk−3 ρ2
··· ... ...
φkk =
S O
ρk−1 ρk−2 ρk−3 · · · ρ1 ρk
.
A S 1
ρ1
...
ρ1 ρ2 · · · ρk−2 ρk−1
1
...
ρ1
...
· · · ρk−3 ρk−2
... ...
···
ρk−1 ρk−2 ρk−3 · · · ρ1 1
101
Exemple de calcul de φkk
• Pour k = 2, φ22 =
1 ρ(1)
ρ(1) ρ(2)
O
=
U
ρ(2) − ρ(1)2
.
D 1 ρ(1) 1 − ρ(1) 2
O U ρ(1) 1
S S 1 ρ(1) ρ(1)
A• Pour k = 3, φ33 =
ρ(1) 1
ρ(2) ρ(1) ρ(3)
ρ(2)
.
1 ρ(1) ρ(2)
ρ(1) 1 ρ(1)
ρ(2) ρ(1) 1
102
Remarque
S O
φ̂11 = ρ̂(1)
et
A S φ̂22 =
ρ̂(2) − ρ̂(1)2
1 − ρ̂(1)2
et ainsi de suite.
103
Le théorème suivant donne la propriété car-
actérisant les processus autorégressifs ainsi que
la distribution asymptotique des autocorrélations
partielles échantillonnales.
U
φpp = φp
D .
S
φ =0
kk
O pour k>p
S
De plus
A 1
φ̂kk ∼ N 0,
n
104
Remarque
O U
• Les autocorrélations ρ(k) d’un AR(p) sont
mélange d’exponentielles et de sinusoı̈des
l’infini.
UD
qui s’amortissent à zéro lorsque k tend vers
O
Exemple : Simuler 100 observations de :
S
A S
Xt = 0.4 Xt−1 + 0.5 Xt−2 + at.
105
O U
• Les autocorrélations partielles φkk d’un MA(q)
sont mélange d’exponentielles et de sinusoı̈des
l’infini.
UD
qui s’amortissent à zéro lorsque k tend vers
O
Exemple : Simuler 100 observations de :
S
A S Xt = at − 0.4 at−1 − 0.5 at−2.
Commenter les deux corrélogrammes.
106
IV) PROCESSUS MIXTE ARMA
Xt = α + φ1Xt−1 + · · · + φpXt−p
O U
+
UD
at − θ1at−1 − · · · − θqat−q
est un processus auto-régressif moyenne mo-
O
bile d’ordre (p,q), noté ARMA(p,q), où
S
A S
{at} ∼ BB(0; σa2), p ∈ N, φi ∈ R, φp 6= 0,
q ∈ N, θi ∈ R et θq 6= 0.
En considérant les polynômes φ(B) et θ(B) :
φ(B) Xt = α + θ(B) at .
1. ARMA(p,0)=AR(p) et ARMA(0,q)=MA(q).
O U
2. Si {Xt} est stationnaire de moyenne µ, alors
D
α = µ(1 − φ1 − · · · − φp) .
U
S O
3. En posant Yt = Xt − µ, on peut se ramener
A S
au modèle ARMA(p,q) centré
φ(B) Xt = θ(B) at .
108
Théorème
⇐⇒
le polynôme φ(B) est inversible.
Xt = φ(B)
U
−1Dθ(B)} at =
X
ψi at−i .
O
| {z
ψ(B) i≥0
S S
A• Si le polynôme θ(B) est inversible alors le
processus ARMA(p,q) admet une écriture
AR(∞) définie par
−1
X
at = θ(B)
| {z
φ(B)} Xt = πi Xt−i .
π(B) i≥0
109
2) Fonction d’autocorrélation
U
• Pour k ≥ q + 1,
O
ρ(k) − φ1ρ(k − 1) − · · · − φpρ(k − p) = 0 .
D
O U
• Les autocorrélations ρ(k) d’un processus
ARMA(p,q) se comportent comme celles
S
d’un AR(p).
S
A• Les autocorrélations partielles φkk d’un pro-
cessus ARMA(p,q) se comportent comme
celles d’un MA(q).
110
Exemple : Simuler 100 observations de :
• ARMA(1,1)
O U
D
Xt = 0.5 Xt−1 + at + 0.8 at−1.
U
• ARMA(3,2)
S O
A S
Xt = 0.2Xt−1 + 0.3 Xt−2 + 0.4 Xt−3
111
V) PROCESSUS ARIMA
est stationnaire.
UD
Yt = (1 − B)d Xt
S O
S
Exemple
A• Le processus
Xt = a t + b + W t
où Wt est stationnaire, est un processus
intégré d’ordre 1.
112
• {Xt} est dit processus ARIMA(p, d, q), si le
processus
Yt = (1 − B)d Xt
O U
UD
est ARMA(p, q) SSL,
S O
A S φp(B)Yt = θ0 + θq (B)at,
113
Exemple :
• Le processus
O U
UD
Xt = Xt−1 + at
est un ARIMA(0,1,0).
S O
A S
• Le processus
114