Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Chap 4

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 7

Cours de StatsProba2

Gino Kpogbezan

Chapitre 4

Propriétés asymptotiques
1 Inégalités de probabilité
Les inégalités sont utiles pour majorer ou borner des grandeurs qui sont diffi-
ciles ou impossible à calculer. Elles sont beaucoup utilisées dans la théorie des
convergences que nous aborderons dans la section suivante.
Théoreme 1 (Inégalité de Markov) Soit X une variable aléatoire non-
négative telle que E(X) existe. Pour tout a > 0,

E(X)
P(X > a) ≤ (1)
a
Preuve: Comme X > 0, on a:
Z ∞ Z a Z ∞
E(X) = xf (x)dx = xf (x)dx + xf (x)dx
Z0 ∞ 0
Z ∞ a

≥ xf (x)dx ≥ a f (x)dx = aP(X > a)


a a

Théoreme 2 (Inégalité de Chebyshev) Soient µ = E(X) et σ 2 = V(X).


Alors,
σ2
 
X −µ 1
P(|X − µ| ≥ a) ≤ 2 et P | |≥k ≤ 2 (2)
a σ k
Preuve: D’après l’inégalité de Markov, on a:

E(X − µ)2 σ2
P(|X − µ| ≥ a) = P(|X − µ|2 ≥ a2 ) ≤ =
a2 a2
La seconde inégalité suit en posant a = kσ.

2 Notions de convergence
L’objectif de cette section est d’analyser le comportement d’une suite (ou
séquence) de variables aléatoires, indexée par n ∈ N. Une suite de variables
aléatoires est généralement notée sous la forme (Xn )n∈N .

1
Définition 1: La théorie asymptotique consiste en l’étude des propriétés
d’une suite de variables aléatoires (Xn )n∈N lorsque la dimension n tend vers
l’infini.
Il y a deux résultats principaux dans ce chapitre que nous pouvons formuler de
maniere informelle comme suit:
1. La loi des grands nombresP qui stipule que la moyenne empirique (ou
n
des observations) X̄n = n−1 i=1 Xi converges en probabilité vers
l’espérance µ = E(Xi ). Ce qui signifie que X̄n est proche de µ avec
grande probabilité.

2. Le théoreme central limite qui stipule que n(X̄n − µ) converge en
loi vers une loi normale. Ce qui signifie que la moyenne empirique a
approximativement une distribution normale pour n grand.

2.1 Les types de convergence


La théorie asymptotique repose sur quatre types de convergence:
1. La convergence presque sûre.
2. La convergence en probabilité.
3. La convergence en moyenne quadratique.
4. La convergence en loi.
Définition 2
Soient X1 , X2 , · · · une suite de variables aléatoires et soit X une autre variable
aléatoire. On désigne par Fn la fonction de répartition de Xn et par F celle de
X.
1. La suite de variables aléatoires (Xn )n∈N converge presque sûrement
a.s.
(ou de facon forte) vers la variable aléatoire X, notée Xn −−→ X , si:
n o
P ω : lim Xn (ω) = X(ω) =1 (3)
n→∞

2. La suite de variables aléatoires (Xn )n∈N converge en probabilité (ou


P
converge au sens faible) vers la variable aléatoire X, notée Xn −
→ X , si,
pour tout  > 0,

lim P ({ω : |Xn (ω) − X(ω)| > }) = 0 (4)


n→∞

3. La suite de variables aléatoires (Xn )n∈N converge en moyenne quadra-


q.m.
tique vers la variable aléatoire X, notée Xn −−−→ X , si

lim E |Xn − X|2 = 0



(5)
n→∞

4. La suite de variables aléatoires (Xn )n∈N converge en loi (ou en distri-


d
bution) vers la variable aléatoire X, notée Xn −
→ X , si

lim Fn (t) = F (t) pour tout point de continuité de F (6)


n→∞

2
Le symbole «a.s. »renvoie à la traduction anglo-saxonne du terme presque
sûre (almost sure).
Remarque: La convergence en moyenne quadratique est principalement utile
pour prouver la convergence en probabilité. Précisement, la convergence en
moyenne quadratique implique la convergence en probabilité. En effet, d’après
l’inégalité de Markov, on a

E(|Xn − X|2 )
P(|Xn − X| > ) = P(|Xn − X|2 > 2 ) ≤ .
2

Théoreme 3: On a:
q.m. P
1. Xn −−−→ X implique Xn −
→ X.
P d
2. Xn −
→ X implique Xn −
→ X.
En général, les sens inverses des implications du Théoreme 3 ne sont pas vérifiés.
Théoreme 4 (Théoreme de Slutzky):
Soient (Xn )n∈N et (Yn )n∈N deux suites de variables aléatoires telles que
d P
Xn −
→ X et Yn −
→ c, avec c 6= 0, alors:
d
Xn + Yn −
→X +c
d
Xn Yn −
→ cX
Xn d X

→ .
Yn c

3 La loi des grands nombres


Une des principales applications de la notion de convergence en probabilité est la
Loi faible des grands nombres. La loi faible des grands nombres stipule que
la moyenne empirique de variables aléatoires indépendantes et identiquement
distribuées (i.i.d.) converge en probabilité vers l’espérance de ces variables.
Théoreme 5 (Loi faible des grands nombres):
Si X1 , · · · , Xn des variables aléatoires i.i.d. telles que E(Xi ) = µ et V(Xi ) = σ 2 ,
pout tout i = 1, · · · , n, alors
P
X̄n − → µ.
Preuve: Déterminons d’abord les deux premiers moments de la moyenne em-
pirique X̄n . L’espérance étant un operateur linéaire, nous avons:
n
! n
1X 1X
E(X̄n ) = E Xi = E(Xi )
n i=1 n i=1

Puisque toutes les variables Xi ont la même espérance E(Xi ) = µ, il vient:


n
1X nµ
E(X̄n ) = µ= =µ
n i=1 n

3
La variance de X̄n peut s’écrire sous la forme:
n
! n
!
1X 1 X
V(X̄n ) = V Xi = 2 V Xi
n i=1 n i=1

En développant, nous avons


n
!
X
V Xi = V(X1 )+V(X2 )+· · ·+V(Xn )+2Cov(X1 X2 )+· · ·+2Cov(Xn−1 Xn )
i=1

Toutes les variables aléatoires Xi ont la même variance V(Xi ) = σ 2 . Par ailleurs,
ces variables sont indépendantes, donc toutes les covariances Cov(Xi , Xj ) pour
j 6= i sont nulles. Par conséquent, il vient:
n n
1 X 1 X 2 nσ 2 σ2
V(X̄n ) = V(Xi ) = σ = =
n2 i=1 n2 i=1 n2 n

D’après l’inégalité de Chebyshev, on a:


E(|X̄n − µ|2 ) σ2
P(|X̄n − µ| > ) ≤ = −→ 0 lorsque n −→ ∞
2 n2
Remarque: Il est interessant de remarquer que le résultat de la loi des grands
nombres s’applique quelle que soit la distribution des variables aléatoires
X1 , · · · , Xn .

4 Théoreme central limite


La loi des grands nombres stipule que X̄n est proche de µ. Mais ce résultat
n’est pas suffisant pour nous aider à approximer des probabilités de la variable
aléatoire X̄n . Pour cela, nous avons besoin du théoreme central limite.
Supposons que X1 , · · · , Xn sont i.i.d. avec espérance µ et variance σ 2 . Le
théoreme central limite (CLT en anglais) stipule que X̄n a une distribution qui
2
est approximativement normal avec espérance µ et variance σn . Ceci est remar-
quable car aucune hypothèse sur la loi des Xi n’a été faite, à part l’existence de
l’espérance et de la variance.
Théoreme 6 (Central Limit Theorem (CLT)):
Soient X1 , · · · , Xn des variables aléatoires i.i.d.
Pn telles que E(Xi ) = µ et V(Xi ) =
σ 2 , pout tout i = 1, · · · , n. Soit X̄n = n−1 i=1 (Xi ), alors

X̄n − µ n(X̄n − µ) d
p = −
→ N (0, 1).
V(X̄n ) σ

4.1 Méthode delta


Définiton 3 (Distribution asymptotique): Si la variable aléatoire (séquence)
Xn converge en loi vers X ayant pour fonction de répartition F (.), alors F (.)
est la fonction de répartition de la distribution asymptotique de Xn .
d
Xn −
→ loi asymptotique

4
La méthode delta permet de dériver la distribution asymptotique d’une vari-
able aléatoire qui est une fonction d’une autre variable asymptotiquement nor-
male. Dit autrement, si Yn a une distribution asymptotique normale alors la
méthode delta nous permet de trouver la distribution asymptotique de g(Yn )
pour une fonction dérivable quelconque g(.).
Théoreme 7 (Méthode delta): Supposons que

n(Yn − µ) d

→ N (0, 1)
σ
et que g est une fonction dérivable telle que g 0 (µ) 6= 0. Alors

n(g(Yn ) − g(µ)) d
−→ N (0, 1)
|g 0 (µ)|σ

En d’autres mots,

σ2 2
   
0 2σ
Yn ≈ N µ, implique que g(Yn ) ≈ N g(µ), (g (µ)) .
n n

Exemple: Soient X1 , · · · , Xn des variables aléatoires i.i.d. d’espérance µ et de


variance σ 2 finis. D’après le théoreme central limite , on a:

n(X̄n − µ) d

→ N (0, 1)
σ
Soit Wn = exp(X̄n ). Ainsi, Wn = g(X̄n ) où g(s) = exp(s). Comme g 0 (s) =
exp(s), la méthode delta implique que

σ2
 
Wn ≈ N exp(µ), exp(2µ) .
n

5 Exercices
Exercice 1
Soient deux variables aléatoires réelles X1 et X2 indépendantes et distribuées
chacune selon une loi N (0, σ 2 ). On considère la variable transformée Y définie
par la relation: q
Y = X12 + X22
On admet que cette variable Y suit une loi de Rayleigh avec pour fonction de
densité:
y2
 
2 y
fY (y; σ ) = 2 exp − 2 ∀y ∈ [0, +∞[
σ 2σ

1. Quelle est la loi de la variable Y 2 /σ 2 ? En déduire la valeur de E(Y 2 ) et


de V(Y 2 ).

5
2. Soit Y1 , · · · , Yn une suite de variables aléatoires i.i.d. de même loi que Y .
On considère une variable transformée définie par:
n
1 X 2
σ̂n2 = Y
2n i=1 i

Montrez que cette suite de variables aléatoires converge en probabilité vers


σ2 .
3. On admet que les variables Y12 , · · · , Yn2 sont i.i.d. de même loi que Y 2 .
Montrez que la variable σ̂n2 est asymptotiquement normalement distribuée.

Exercice 2
Soit (Xn )n∈N une suite de variables aléatoires discrètes telles que ∀n ≥ 2:
1
P(Xn = −n) = P(Xn = n) =
2n2
1
P(Xn = 0) = 1 −
n2
1. Déterminer la limite en probabilité de la suite (Xn ).
2. La suite (Xn ) converge-t-elle en moyenne quadratique vers cette même
limite?

Exercice 3
Soit X ∼ Exp(γ). Trouver P(|X −µX | ≥ kσX ) pour k > 1. Comparer le résultat
à la borne que vous trouvez en utilisant l’inégalité de Chebyshev.

Exercice 4
Soit X ∼ P oisson(λ). Utilisez l’inégalité de Chebyshev pour montrer que
P(X ≥ 2λ) ≤ 1/λ.

Exercice 5
Suppose we have a computer program consisting of n = 100 pages of code. Let
Xi be the number of errors on the ith page of code. Suppose that P the Xi ’s
n
are Poisson with mean 1 and that they are independent. Let Y = i=1 Xi
be the total number of errors. Use the central limit theorem to approximate
P(Y < 90).

Exercice 6
Un fournisseur d’accès à Internet met en place un point local d’accès, qui dessert
5000 abonnés. À un instant donné, chaque abonné a une probabilité égale à 20%
d’être connecté. Les comportements des abonnés sont supposés indépendants
les uns des autres.
1. On note X la variable aléatoire égale au nombre d’abonnés connectés à un
instant t. Quelle est la loi de X? Quelle est son espérance, son écart-type?

6
2. On pose:
X − 1000
Y = √
800
Justifier précisement que l’on peut approcher la loi de Y par la loi normale
N (0, 1).

3. Le fournisseur d’accès souhaite savoir combien de connexions simultanées


le point d’acceès doit pouvoir gérer pour que sa probabilité d’être saturé
à un instant donné soit inferieure à 2, 5%. En utilisant l’approximation
précédente, proposer une valeur approchée de ce nombre de connexions.

Vous aimerez peut-être aussi