Chapitre 2
Chapitre 2
Chapitre 2
second ordre
1. Vocabulaire probabiliste
L’autocovariance est définie par : γ(t, s) = Cov(Xt, Xs) = E[ (Xt - µt)(Xs - µs) ]
= E(Xt Xs) - µt µs. ∀ t, s.
Définition : Un processus Xt est dit gaussien si le vecteur (Xt1, Xt2, …., Xtk) est de
loi gaussienne, pour tout t1 < t2 < …< tk.
Exercice : Montrer que si Xt est de second ordre alors µt et γ(t, s) sont bien définie.
C'est-à-dire E(Xt) et Cov(Xt, Xs) existent ∀ t, s.
Dans la suite on va toujours se placer dans L2, ce qui revient à supposer que le
processus Xt est de second ordre, et ce qui garantira l’existence de µt et γ(t, s).
L2 = {variables aléatoires X / E(X2) < ∝ }.
2. Processus stationnaires
1
En général on ne dispose que d’une seule série de mesure X1, X2, X3, ……..., Xn.
Donc pour étudier les caractéristiques d’une série chronologique, on est conduit à
supposer que ses caractéristiques sont stables dans le temps, ce que nous appelons
la notion de stationnarité au sens strict (SSS).
Définition : Un processus stochastique Xt est dit SSS si pour tout indice t1 < t2 < …
< tn, la loi du vecteur (Xt1, Xt2, …, Xtn) est identique à celle de (Xt1+k, Xt2+k, …,
Xtn+k) ∀k.
E(Xt) = µt = µ ∀ t.
Cov(Xt, Xs) = γ(t – s) ∀ t, s.
Preuve: i. La loi de Xt est la même que celle de Xs. D’où E(Xt) = E(Xs) = µ
∀ t, s.
ii. La loi de (Xt, Xs) est la même que celle de (X0, Xs-t). D’où E(XtXs) = E(X0Xs-t).
Par suite, Cov(Xt, Xs) = E(Xt Xs) - µt µs = E(X0 Xs-t) - µ2 = Cov(X0, Xs-t) = γ(t – s).
Exemples de processus :
2
On note bb(0, σa2).
E(Xt2) = E(at2) + θ2 E(at-12) + 2θ E(at at-1) = σa2 + θ2 σa2 = σa2 (1 + θ2) < ∝.
Si k ≥ 2 Cov(Xt, Xt+k) = 0.
Fonction d’autocovariance:
γ IZ → IR
k → Cov(Xt, Xt+k) = γk.
i. γ-k = γk ∀ k ∈ IZ
Preuve:
Var ( X ) = E [( X - E( X ) ) ( X - E( X ) )′]
= E [ (X1 - µ, X2 - µ, …, Xn - µ)’ (X1 - µ, X2 - µ, …, Xn - µ)]
= [ Cov(Xi, Xj) ]
= (γi-j)
3
= Γn
Donc Γn est définie positive. Car Var(α′ X ) = α′ Var ( X ) α ≥ 0, ∀ α = (α1,
α2, …, αn)′.
Fonction d’autocorrélation :
ρ IZ → IR
k → ρk = γk/ γ0.
i. ρ0 = 1.
ii. ρ-k = ρk . ∀ k ∈ IZ
iii. La matrice Corr (X1, X2, …, Xn)′ ≥ 0.
Exemples :
4
γ0 = Var(Xt) = E(Xt2) = σa2 (1 + θ2).
γ1 = E(Xt Xt-1) = E[(at - θ at-1) (at+1 - θ at) ] = - θ σa2.
γk = E(Xt Xt-k) = E[(at - θ at-1) (at-k - θ at-k-1) ] = 0 Si k ≥ 2.
D’où, ρ0 = 1.
ρ1 = -θ / (1 + θ2).
ρk = 0 Si k ≥ 2.
3.1. Estimation de µ:
1 n
On utilise l’estimateur X = ∑ E( X ) .
n t =1 t
Proposition : On a:
Preuve :
1 n
i. E( X ) = ∑ E( X ) = µ .
n t =1 t
ii. On veut démontrer que || X - µ|| → 0 si ρk → 0.
n→∞ k →∞
2 2
Or || X - µ|| = E( X - µ) = Var( X ).
5
1 n −1
On peut montrer que Var( X ) =
n
∑ (1 - |k|/n) γk
n→∞
→ 0, si ρk
k = −n + 1
→ 0.
k →∞
3.2. Estimation de γk et ρk :
1 n−k
Soit Ck =
n
∑ (Xt - X )(Xt+k - X ).
t =1
1 n
C 0 = s2 = ∑ (Xt - X )2 est la variance échantillonnée. On l’utilise pour
n
t =1
estimer la variance théorique γ0.
6
1 +∞
Avec σrk2 = ∑ (ρu2 + ρu+k ρu-k - 4ρk ρu ρu-k + 2ρu2 ρk2 )
n
u = −∞
Par suite pour un bruit blanc, la variance prendra une forme plus simple et on aura :
q
2 1 1
∀k≥q+1 σrk = ∑ ρu2 = (1 + 2 ρ12 + … + 2 ρq2).
n n
k = −q
On note, MA(∝).
E(Xt) = µ.
7
+∞
= σa2 ∑ ψi2 , avec ψ0 = 1.
i=0
+∞
D’où le processus Xt est de second ordre si: ∑ ψi2 < ∝.
i=0
4.2. Stationnarité :
+∞
Proposition : Si ∑ ψi2 < ∝ alors Xt est SSL, avec :
i=0
E(Xt) = µ.
+∞
Var(Xt) = σa2 ∑ ψi2 , avec ψ0 = 1.
i=0
+∞
2
γk = σa ∑ ψi ψi+k.
i=0
+∞ +∞
= E( ∑ ψi at-i ∑ ψj at+k-j )
i=0 j=0
+∞ +∞
= ∑ ∑ ψi ψj E(at-i at+k-j )
i=0 j=0
+∞
2
= σa ∑ ψi ψi+k.
i=0
4.3. Inversibilité :
8
D’où Xt = at + ψ1at-1 + ψ2at-2 + ……….
+∞
= ∑ ψi at-i avec ψ0 = 1.
i=0
+∞ +∞
= ∑ π i Xt-i avec π 0 = 1 et ∑ |π i| < ∝.
i=0 i=0
+∞
Remarque: ∑ π i Bi est bien définie dans ce cas.
i=0
Xt = at - θat-1
+∞
En plus, on aura : at = Xt + θXt-1 + θ2Xt-2 + …… = ∑ θiXt-i .
i =0
9
+∞ +∞
i.e. π i = θi. Et donc on a bien ∑ |π i| = ∑ |θ|i = 1/ (1 - θ) < ∝.
i=0 i=0
Par suite un modèle AR(p) défini par: Xt = θ0 + φ1Xt-1 + ……+ φpXt-p + at,
Inversion de 1 - θB :
+∞
(1 - θB) = 1/(1 - θB ) = ∑ θiBi .
i=0
10
Ceci revient à dire que la racine du polynôme φ(z) = 1 - θz est de module supérieur
à 1, puisque les propriétés des séries en B étant identiques à celle des séries
entières.
1èr cas : r = 1
2ème cas : r = 2
11
Le polynôme caractéristique est P(x) = x2 - 5 x + 6. Les racines de P(x) = 0 sont :
α1 = 2 ou α2 = 3. D’où la solution générale est : un = A 2n + B 3n , avec les
constantes A et B sont telles que :
u0 = A + B = 1 et u1 = 2A + 3B = 1. Par suite, A = 2 et B = -1.
Ce qui implique, un = 2 2n - 3n.
3ème cas : r ≥ 2.
Avec α1, α2 , …, αk les k racines distinctes de P(x) = 0, et m1, m2, … , mk les ordres de
multiplicité des αi .
La solution générale est alors : un = P1(n) α1n + P2(n) α2n + …. + Pk(n) αkn . Où Pi(n)
est un polynôme en n de degré mi – 1. C’est-à-dire : Pi(n) = A0 + A1n + A2 n2 + …
+ Ami-1 nmi-1.
Remarques :
i. Si α1, α2, …, αk sont de modules inférieur à 1, la solution générale de
l’équation aux différences décroit exponentiellement vers 0, et on a : |un| < cρn avec
0 < ρ < 1.
ii. Le polynôme caractéristique est: P(x) = xr - a1 xr-1 - a2 xr-2 - … - ar-1 x –
ar .
Soit Θ(z) = 1 - a1 z - a2z2 - … – ar zr.
= zr P(1/z).
12
13