Chap 4
Chap 4
Chap 4
Gino Kpogbezan
Chapitre 4
Propriétés asymptotiques
1 Inégalités de probabilité
Les inégalités sont utiles pour majorer ou borner des grandeurs qui sont diffi-
ciles ou impossible à calculer. Elles sont beaucoup utilisées dans la théorie des
convergences que nous aborderons dans la section suivante.
Théoreme 1 (Inégalité de Markov) Soit X une variable aléatoire non-
négative telle que E(X) existe. Pour tout a > 0,
E(X)
P(X > a) ≤ (1)
a
Preuve: Comme X > 0, on a:
Z ∞ Z a Z ∞
E(X) = xf (x)dx = xf (x)dx + xf (x)dx
Z0 ∞ 0
Z ∞ a
E(X − µ)2 σ2
P(|X − µ| ≥ a) = P(|X − µ|2 ≥ a2 ) ≤ =
a2 a2
La seconde inégalité suit en posant a = kσ.
2 Notions de convergence
L’objectif de cette section est d’analyser le comportement d’une suite (ou
séquence) de variables aléatoires, indexée par n ∈ N. Une suite de variables
aléatoires est généralement notée sous la forme (Xn )n∈N .
1
Définition 1: La théorie asymptotique consiste en l’étude des propriétés
d’une suite de variables aléatoires (Xn )n∈N lorsque la dimension n tend vers
l’infini.
Il y a deux résultats principaux dans ce chapitre que nous pouvons formuler de
maniere informelle comme suit:
1. La loi des grands nombresP qui stipule que la moyenne empirique (ou
n
des observations) X̄n = n−1 i=1 Xi converges en probabilité vers
l’espérance µ = E(Xi ). Ce qui signifie que X̄n est proche de µ avec
grande probabilité.
√
2. Le théoreme central limite qui stipule que n(X̄n − µ) converge en
loi vers une loi normale. Ce qui signifie que la moyenne empirique a
approximativement une distribution normale pour n grand.
2
Le symbole «a.s. »renvoie à la traduction anglo-saxonne du terme presque
sûre (almost sure).
Remarque: La convergence en moyenne quadratique est principalement utile
pour prouver la convergence en probabilité. Précisement, la convergence en
moyenne quadratique implique la convergence en probabilité. En effet, d’après
l’inégalité de Markov, on a
E(|Xn − X|2 )
P(|Xn − X| > ) = P(|Xn − X|2 > 2 ) ≤ .
2
Théoreme 3: On a:
q.m. P
1. Xn −−−→ X implique Xn −
→ X.
P d
2. Xn −
→ X implique Xn −
→ X.
En général, les sens inverses des implications du Théoreme 3 ne sont pas vérifiés.
Théoreme 4 (Théoreme de Slutzky):
Soient (Xn )n∈N et (Yn )n∈N deux suites de variables aléatoires telles que
d P
Xn −
→ X et Yn −
→ c, avec c 6= 0, alors:
d
Xn + Yn −
→X +c
d
Xn Yn −
→ cX
Xn d X
−
→ .
Yn c
3
La variance de X̄n peut s’écrire sous la forme:
n
! n
!
1X 1 X
V(X̄n ) = V Xi = 2 V Xi
n i=1 n i=1
Toutes les variables aléatoires Xi ont la même variance V(Xi ) = σ 2 . Par ailleurs,
ces variables sont indépendantes, donc toutes les covariances Cov(Xi , Xj ) pour
j 6= i sont nulles. Par conséquent, il vient:
n n
1 X 1 X 2 nσ 2 σ2
V(X̄n ) = V(Xi ) = σ = =
n2 i=1 n2 i=1 n2 n
4
La méthode delta permet de dériver la distribution asymptotique d’une vari-
able aléatoire qui est une fonction d’une autre variable asymptotiquement nor-
male. Dit autrement, si Yn a une distribution asymptotique normale alors la
méthode delta nous permet de trouver la distribution asymptotique de g(Yn )
pour une fonction dérivable quelconque g(.).
Théoreme 7 (Méthode delta): Supposons que
√
n(Yn − µ) d
−
→ N (0, 1)
σ
et que g est une fonction dérivable telle que g 0 (µ) 6= 0. Alors
√
n(g(Yn ) − g(µ)) d
−→ N (0, 1)
|g 0 (µ)|σ
En d’autres mots,
σ2 2
0 2σ
Yn ≈ N µ, implique que g(Yn ) ≈ N g(µ), (g (µ)) .
n n
σ2
Wn ≈ N exp(µ), exp(2µ) .
n
5 Exercices
Exercice 1
Soient deux variables aléatoires réelles X1 et X2 indépendantes et distribuées
chacune selon une loi N (0, σ 2 ). On considère la variable transformée Y définie
par la relation: q
Y = X12 + X22
On admet que cette variable Y suit une loi de Rayleigh avec pour fonction de
densité:
y2
2 y
fY (y; σ ) = 2 exp − 2 ∀y ∈ [0, +∞[
σ 2σ
5
2. Soit Y1 , · · · , Yn une suite de variables aléatoires i.i.d. de même loi que Y .
On considère une variable transformée définie par:
n
1 X 2
σ̂n2 = Y
2n i=1 i
Exercice 2
Soit (Xn )n∈N une suite de variables aléatoires discrètes telles que ∀n ≥ 2:
1
P(Xn = −n) = P(Xn = n) =
2n2
1
P(Xn = 0) = 1 −
n2
1. Déterminer la limite en probabilité de la suite (Xn ).
2. La suite (Xn ) converge-t-elle en moyenne quadratique vers cette même
limite?
Exercice 3
Soit X ∼ Exp(γ). Trouver P(|X −µX | ≥ kσX ) pour k > 1. Comparer le résultat
à la borne que vous trouvez en utilisant l’inégalité de Chebyshev.
Exercice 4
Soit X ∼ P oisson(λ). Utilisez l’inégalité de Chebyshev pour montrer que
P(X ≥ 2λ) ≤ 1/λ.
Exercice 5
Suppose we have a computer program consisting of n = 100 pages of code. Let
Xi be the number of errors on the ith page of code. Suppose that P the Xi ’s
n
are Poisson with mean 1 and that they are independent. Let Y = i=1 Xi
be the total number of errors. Use the central limit theorem to approximate
P(Y < 90).
Exercice 6
Un fournisseur d’accès à Internet met en place un point local d’accès, qui dessert
5000 abonnés. À un instant donné, chaque abonné a une probabilité égale à 20%
d’être connecté. Les comportements des abonnés sont supposés indépendants
les uns des autres.
1. On note X la variable aléatoire égale au nombre d’abonnés connectés à un
instant t. Quelle est la loi de X? Quelle est son espérance, son écart-type?
6
2. On pose:
X − 1000
Y = √
800
Justifier précisement que l’on peut approcher la loi de Y par la loi normale
N (0, 1).