Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Prob Av

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 25

UNIVERSITÉ D’ALGER 1 BENYOUCEF BENKHEDDA

DÉPARTEMENT INFORMATIQUE
L3 SYSTÈME INFORMATIQUE

PROBABILITÉS ET STATISTIQUES
SOUS LA SUPERVISION DU Dr. MENNI

PROJET 1 : PROBABILITÉS AVANCÉES


CONTENU :
I. FONCTIONS CARACTÉRISTIQUES GÉNÉRATRICES
II. THÉORÈME CENTRAL LIMITE
III. VECTEURS GAUSSIENS

RÉALISÉ PAR :
RABIAI MEHDI AYOUB
HADJ MESSAOUD SOUMIA TINHINANE
KHEMAR KENZA
OUHACHI FARES MOHAMED AMINE
BARÇA AHMED FATEH
ZAHAF NADJIB
1 . 1 FONCTION GÉNÉRATRICE :
a) Fonction génératrice des probabilités d’une variable aléatoire :

- Introduction:

- Définition : Soit X une v.a. entière. On appelle fonction génératrice des probabilités
(fgp) de X, et on note 𝐺x la fonction :
𝐺 (𝑡): = 𝐸(𝑡 ) = ∑ 𝑃 (𝑛)𝑡 toujours avec 𝑃 (𝑛): = 𝑃({𝑋 = 𝑛})
- propriété :
𝐺 (𝑡) = 𝐺 (𝑡). 𝐺 (𝑡)
𝐺′ (𝑡) = 𝑚1 = 𝐸(𝑥)
𝐺" (𝑡) = 𝑚2 − 𝑚1 tel que : 𝑚 = 𝐸[𝑋 ]

- lois usuelle :
➤si X est est une loi de Bernoulli de paramètres p, alors
𝐺𝑥(𝑡) = (1 − 𝑝) + 𝑝𝑡

➤si X est est une loi de binomiale de paramètres n,p, alors


𝐺𝑥(𝑡) = ((1 − 𝑝) + 𝑝𝑡)ⁿ

➤si X est est une loi géométrique de paramètres p∊]0,1[ alors

𝐺𝑥(𝑡) =

➤si X est une loi de poisson de paramètre 𝜆 > 0, alors

𝐺𝑥(𝑡) = 𝑒 𝑒

- Exemple:
⫸Fonction génératrice des probabilités d’une v.a. de Poisson X↝ P(λ) :

On a: P{X = k} = 𝑒 !
donc :

( ) ( )
𝐺𝑥(𝑠) = 𝐸𝑠 = ∑ 𝑒 !
𝑠 = 𝑒 ∑
!
= 𝑒 𝑒 =𝑒

D'où : 𝐺′𝑥 (𝑠) = 𝜆 𝑒 ( )


Et donc : 𝐸𝑥 = 𝐺′𝑥(1) = 𝜆
( )
plus généralement : 𝐺 (𝑠) = 𝜆 𝑒 ( )

( )
Donc : 𝐸[𝑋(𝑋 − 1). . . (𝑋 − 𝑟 + 1)] = 𝐺 (1) = 𝜆

En particulier : 𝜆 = 𝐸[𝑋(𝑋 − 1)] = 𝐸𝑋 − 𝐸𝑋


Alors : 𝐸𝑋 = 𝜆 + 𝜆 d'où : 𝑉𝑎𝑟 𝑋 = 𝐸𝑋 − (𝐸𝑋) = 𝜆 +𝜆-𝜆 =𝜆

⫸Fonction génératrice des probabilités d’une v.a. de loi géométrique X↝G(α) :

On a : 𝑃{𝑋 = 𝑘} = (1 − 𝛼)𝛼 , 𝑘=1,2,..... donc comme : ∑ 𝑞 =

𝐺𝑥(𝑠) = 𝐸𝑠 =∑ (1 − 𝛼)𝛼 𝑠 = ∑ (𝛼𝑠) = (1 − 𝛼)

D'où : 𝐺′𝑥 (𝑠) = ( )


Et 𝐸𝑋 = 𝐺′𝑥 (1) = ( )
=

Par ailleurs: 𝐸𝑋 − 𝐸𝑋 = 𝐺′′𝑥 (𝑠) = (1 − 𝛼) + ( )


=( )

d'où : 𝐸𝑋 = ( )
+ =( )

Et 𝑉𝑎𝑟 𝑋 = 𝐸𝑋 − (𝐸𝑋) = ( )
−( )
=( )

⫸variable aléatoire de Bernoulli :

On sait que la loi binomiale est la loi de la somme de n v.a de Bernoulli indépendantes :
Ceci explique que la fgp d’une v.a. binomiale 𝐺(𝑠) = ((1 − 𝑝) + 𝑝𝑠) , est la puissance
n-ième de la fgp (1 − 𝑝) + 𝑝𝑠 d’une v.a. de Bernoulli.

b) Fonction génératrice des moments :


La fonction génératrice des moments d’une v.a. X est la fonction 𝐺𝑋(𝑡) définie par
𝐺 (𝑡) = 𝐸(𝑒 )

Propriétés:
𝐺𝑥 (0) = 𝐸 (1) = 1.
∙ Le moment non centré d’ordre r ∈𝑁 ∗ d’une v.a. X est
( )
𝑚 (𝑋) = 𝐸(𝑋 ) = 𝐺 (0)

∙ 𝑉(𝑋) = 𝐸(𝑋 ) − [𝐸()𝑋] = 𝐺" (0) − [𝐺′ (0)]


∙ si X et Y sont deux variables aléatoire tel que :
quelque soit 𝑡𝜖𝑅, 𝐺 (𝑡) = 𝐺 (𝑡)
alors les deux variables aléatoire X et Y ont la même loi de probabilité.

b. 1) Fonction génératrice des moments d’une v.a. discrète :

La fonction génératrice des moments d’une v.a. discrète X est donné par :

𝐺 (𝑡) = 𝐸(𝑒 ) = ∑ ( ) 𝑒 𝑃(𝑋 = 𝑘)

Exemple :
∙ La fonction génératrice des moments d’une v.a. 𝑋 ↝ 𝐵(𝑝) ∶

𝐺 (𝑡) = 𝐸(𝑒 ) = ∑ 𝑒 𝑃(𝑋 = 𝑘)


∗ ∗
=𝑒 (1 − 𝑝) + 𝑒 𝑝
= (1 − 𝑝) + 𝑝𝑒
∙ La fonction génératrice des moments d’une v.a. 𝑌 ↝ 𝐺(𝑝) :

𝐺 (𝑡) = 𝐸(𝑒 ) = ∑ 𝑒 𝑃(𝑌 = 𝑘)

=∑ 𝑒 𝑃(1 − 𝑝)

= ∑ ((1 − 𝑝)𝑒 )

= ( ) ( ( ) )

b. 2) Fonction génératrice des moments d’une v.a. continue :


La fonction génératrice des moments d’une v.a. continue 𝑋 de densité 𝑓(𝑥)est donné
par :

𝐺 (𝑡) = 𝐸(𝑒 ) = ∫ 𝑒 𝑓(𝑥)𝑑𝑥

Exemple :
∙ La fonction génératrice des moments d’une v.a. 𝑥 ↝ 𝑢[ , ] 𝑒𝑠𝑡 ∶
𝐺 (𝑡) = 𝐸(𝑒 )

= ∫ 𝑒 𝑑𝑥

= ∫ 𝑒 𝑑𝑥

= [ 𝑒 ]

= ( )

∙ La fonction génératrice des moments d’une v.a. 𝑦 ↝ 𝜀(𝜆) 𝑒𝑠𝑡 ∶


𝐺 (𝑡) = 𝐸(𝑒 )

=∫ 𝑒 𝜆𝑒 𝑑𝑦

= ∫ 𝜆𝑒 ( )
𝑑𝑦

= [𝑒 ( )
]

= pour 𝑡 < 𝜆

1. 2 . FONCTION CARACTÉRISTIQUE:
On appelle fonction caractéristique de la variable aléatoire X la fonction 𝜑(𝑋) de la
variable réel à la variable complex 𝜑(𝑋) : B
définie par:
𝜑 (𝑡) = 𝐸(𝑒 )
Si x est discret :

𝜑 (𝑡) = ∑ ∈ 𝑒 𝑃(𝑋 = 𝑡)

où {xt , t ∈ I } est l’ensemble des réalisations possibles de X.

Si x est continue et ayant pour densité f:

𝜑 (𝑡) = ∫ 𝑒 𝑓 (𝑥)𝑑𝑥

Propriétés élémentaires de la fonction caractéristique :

⫸ 𝜑𝑋 est continue sur R et bornée par 1 ∶ |𝜑𝑋(𝑡)| ≤ 1 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡 ∈ 𝑅 ; 𝜑𝑋(0) = 1


⫸Pour tout couple (a, b) ∈ R 2 , on a 𝜑 𝑋 + 𝑏(𝑡) = 𝑒 𝜑𝑋(𝑡)

⫸ | φX(t) | ≤ 1 pour tout t ∈ R

⫸ Si X et Y sont indépendantes alors :𝜑 = 𝜑𝑋 + 𝜑𝑌

Proposition:

⫸𝜑 (𝑡) est définie pour tout t ∈ ℜ :

● si X a un moment d’ordre 1, alors 𝜑 (𝑡) est dérivable (et même de 𝐶 ) avec

𝜑′ (𝑡) = 𝑖𝐸[𝑋𝑒 ]

● si x a un moment d' ordre p alors 𝜑 (𝑡) p fois dérivable (et même de classe 𝐶 ) ,
avec: 𝜑′ (𝑡) = 𝑖 𝐸[𝑋 𝑒 ]

lois usuelles:

⫸ loi de bernoulli : On dit qu’une variable aléatoire réelle suit la loi de Bernoulli de
paramètre 𝑝 si l’on a P𝑋 = = (1 − 𝑝)𝛿0 + 𝑝𝛿1. La fonction caractéristique associée
est donc : 𝜑 (𝑡) = 𝐸[𝑒 ] = (1 − 𝑝)𝑒 + 𝑝𝑒 = (1 − 𝑝) + 𝑝𝑒

⫸ loi binomiale: Le calcul de la fonction caractéristique est :

𝜑𝑥(𝑡) = ∑ ( )𝑝 (1 − 𝑝) 𝑒 = ((1 − 𝑝) + 𝑝𝑒 )

⫸ loi poisson: si X est est une loi de poisson de paramètre 𝜆 > 0, alors :
𝑖𝑡 −1)
𝜑𝑥(𝑡) = 𝑒𝜆(𝑒

⫸ loi géométrique :

X suit une loi géométrique ;


𝑃
𝜑𝑥(𝑡) =
𝑒 − (1 − 𝑝)

⫸ loi uniforme discrète: X est une variable aléatoire qui suit la loi uniforme sur l’intervalle [a;
b] (a < b) donc :
𝑒𝑖𝑎𝑡
𝜑𝑥(𝑡) = 𝑏 −𝑎 +1 ∑𝑏−𝑎
𝑘=0 𝑒𝑖𝑘𝑡

⫸ loi uniforme continue: X est une variable aléatoire qui suit la loi uniforme sur l’intervalle
[a; b] :

𝜑𝑥(𝑡) = ( )
⫸ loi exponentielle: la variable aléatoire X suit la loi exponentielle de paramètre λ > 0 :
∞ 𝜆
𝜑𝑥(𝑡) = 𝜆 ∫0 𝑒𝑖𝑡𝑥 𝑒−𝜆𝑥 𝑑𝑥 = 𝜆 − 𝑖𝑡

⫸ loi normal : X suit la loi normale centrée réduite :

𝜑𝑥(𝑡) = 𝑒

Exercice 1 :
déterminer une condition nécessaire et suffisante pour que les réels a et k sont tels que la
suite (Pn) définie pour 𝑛 ≥ 0 , 𝑝𝑎𝑟 𝑃𝑛 = ( ) 𝑘 𝑠𝑜𝑖𝑡 𝑙𝑎 𝑙𝑜𝑖 𝑑𝑒 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑡é d' une
variable aléatoire a valeur dans N
donnez alors la fonction génératrice d'une telle variable aléatoire

Corrigé exercice 1 :
il faut et il suffit que 𝑃𝑛 ≥ 0 pour tout entier n et que ∑ 𝑃𝑛 = 1. implicitement on
remarque qu’il faut avoir a, Sinon la suite (𝑃𝑛) n’est pas définie . on remarque d’abord
qu’on ne peut pas avoir 𝑘 = 0, sinon 𝑃𝑛 = 0 pour tout 𝑛 ≥ 0 et la deuxième condition ne
peut pas être satisfaite . le cas a=0 entraine k=1, si a ≠ 0, la première condition appliquée
pour 𝑛 = 2 impose 𝑘 > 0, de plus pour que la série ∑ 𝑃𝑛 converge, on doit avoir :
<1 ⇔ −1 <1

⇔ −1 < −1<1

⇔0< <2

⇔ 𝑎+1 >

⇔𝑎>−

mais alors , comme la série converge, on sait que

∑ 𝑃𝑛 = = 𝑘(𝑎 + 1)

et donc on a k= . finalement, puisque 𝑘 > 0 et 𝑃1 > 0, on doit donc avoir > 0 ce qui
implique 𝑎 > 0 puisqu'on sait déjà que 𝑎 + 1 > 0
Réciproquement sont vérifiées et donc que (Pn) est une distribution de probabilité. la
fonction génératrice est alors donnée par

𝑘 1
𝐺(𝑡) = 𝑃𝑛𝑡 = 𝑎𝑡 = 𝑎 + 1 − 𝑎𝑡
1−𝑎+1

Exercice 2:
Soient X1, X2, . . . des variables aléatoires indépendantes de même loi de Bernoulli 𝐵(𝑝) sur
{0, 1} de paramètre p ∈ ]0, 1[, et soit N une variable aléatoire, indépendante des 𝑋 ; k ≥ 1,
de loi de Poisson P(𝜃) de paramètre 𝜃 > 0
a) Calculer les fonctions génératrices des moments de 𝑋 et N

b) Déterminer la loi de la variable aléatoire ∑ 𝑋 (avec la convention ∑ 𝑋 =


0
Corrigé exercice 2 :
a) Pour tout s > 0 , 𝐺 (𝑠) = 𝐸(𝑠 ) = 𝑝𝑠 + (1 − 𝑝)𝑠 = 1 + 𝑝(𝑠 − 1)

et 𝐺 (𝑠) = 𝐸(𝑠 ) = 𝑒 ∑ 𝑠 !
= 𝑒 ( )

b) Avec l’outil de la fonction génératrice, pour s > 0, par indépendance entre N et les 𝑋 , k
≥1

𝐸(𝑠 ∑ ) = 𝑃(𝑁 = 𝑛) 𝐸(𝑠 ∑ )

=∑ 𝑃(𝑁 = 𝑛 ) [ 1 + 𝑝(𝑠 − 1)]

=𝑒 ∑
!
[ 1 + 𝑝(𝑠 − 1) ]

=𝑒 ( )

En conséquence, la fonction génératrice caractérisant la loi dans ce cas, ∑ 𝑋 est de


loi de Poisson 𝑃(𝑝 ) de paramètre P𝜃.
Exercice 3:

Soient X,Y deux variables aléatoires réelles indépendantes de même loi. On suppose qu'elles
possèdent un moment d'ordre 2 et on note 𝜎 leur variance commune. On suppose de plus
que

même loi que X;



1. Démontrer que X est d'espérance nulle.
2. Donner un développement limité à l'ordre 2 de 𝜑 𝑥
𝑡 2𝑛
3. Démontrer que ∀ 𝑛 ≥ 1, ∀ 𝑡 ∈ 𝑅, 𝜑 𝑥 2𝑛/2 = 𝜑𝑥(𝑡)
4. En déduire que X suit une loi normale dont on précisera les paramètres.
5. Retrouver ce résultat en appliquant le théorème limite central

Corrigé exercice 3 :

1. L'espérance de doit être égale à l'espérance de X Si on note m cette



valeur, on doit donc avoir√2𝑚 = 𝑚 ce qui donne m = 0 Puisque X admet
un moment d'ordre 2 , 𝜑𝑥 est de classe 𝐶 Elle admet donc un
développement limité à l'ordre en 0 donné par
𝜑′𝑥(0) 𝜑′′𝑥(0)
𝜑𝑥(𝑢) = 𝜑𝑥(0) + 1!
𝑢 +
2!
𝑢² + 𝑜(𝑢²) 𝑜𝑟 ∶

𝜑𝑥(0) = 1 , 𝜑′𝑥(0) = 𝑖𝐸(𝑋) = 0 , 𝜑′′𝑥(0) = −𝐸(𝑋²) = −𝜎²


On en déduit que
−𝜎²
𝜑𝑥(𝑢) = 1 + 2
𝑢² + 𝑜(𝑢²)

3.On va d'abord prouver que, pour tout 𝑡 ∈ 𝑅 on a :

𝜑𝑥 /
= 𝜑𝑥(𝑡)

Une récurrence élémentaire aboutit ensuite au résultat. En effet, puisque


X et Y sont indépendantes

𝜑𝑥(𝑡) = 𝜑𝑥+𝑦/√2 (𝑡) = 𝜑𝑥/√2 (𝑡) . 𝜑𝑦/√2 (𝑡) = 𝜑𝑥/√2(𝑡) ²

or : 𝜑 /√
(𝑡) ∫ 𝑒 ( )/√
𝑑𝑃(𝑤) = 𝜑 ( )

On en déduit le résultat 𝜑𝑥 /
= 𝜑𝑥(𝑡)

4. Fixons t∈R et soit n≥1 Alors, en introduisant le développement limité dans


l'expression précédente, on trouve :
² ² 𝑛
𝜑𝑥(𝑡) = (1 + × + 𝑜( ))2

−𝜎² 𝑡² 1
𝜑𝑥(𝑡) = 𝑒𝑥𝑝 (2 𝑙𝑛(1 + 2
× 2𝑛 + 𝑜 (2𝑛 )))
−𝜎² 𝑡
𝜑𝑥(𝑡) = exp( 2
+ 𝑜(1))

La quantité de gauche ne dépend pas de n , et si on fait tendre n vers +∞ on


trouve :
−𝜎² 𝑡
𝜑𝑥(𝑡) = 𝑒𝑥𝑝( 2
)

On reconnaît la fonction caractéristique d'une loi normale de paramètres O et 𝜎² .


La fonction caractéristique caractérisant la loi, on en déduit que X∼N(0,σ²)

5. Soit (Xi) une suite de variables aléatoires réelles indépendantes et de même loi
que X Alors, on prouve aisément par récurrence que :
...
𝑠 = /

a même loi que X Or, le théorème limite central garantit que 𝑠 converge en loi
vers N(0,σ²) Donc X a pour loi N(0,σ²)

2 . THÉORÈME CENTRALE LIMITE :

On lance n fois une pièce de monnaie, et on convient que l'on gagne 1 euro si l'on
obtient pile, que l'on perd 1 euro si l'on obtient face. On note 𝑆𝑛 l'argent gagné, ou perdu,
après 𝑛 parties. Quelle est la loi de probabilité de 𝑆𝑛? Intuitivement, il est clair qu'il y a plus
de chances que Sn soit proche de 0 plutôt que Sn soit grand. Mais peut-on aller plus loin, et
donner l'allure de la loi de probabilité de Sn? Le théorème suivant, dit théorème limite
central, affirme que c'est effectivement le cas

Cadre d'utilisation:
la variable aléatoire (v.a) peut être discrète ou continue, seules les situations
particulièrement tordues échappent au théorème ( du type loi de Cauchy )

c’est parce que le TCL n’exige pas d’hypothèse sur la loi de probabilité suivie par chaque v.a
hormis celle d’une variance finie qu’il se révèle si indispensable aux statistiques. Du coup, il
s’applique à des lois de probabilité qu’il n’est même pas utile d’identifier …

théorème:
soit (𝑋 )une suite de variables indépendantes identiquement distribuées
admettant un moment d'ordre 2. On pose :
𝜇 = 𝐸(𝑋 ), 𝜎 = 𝑉𝑎𝑟(𝑋 )

𝑆 = 𝑋 +. . . . . . . . +𝑋 𝑌 = = /√

Alors la suite (𝑌 ) converge en loi vers une variable aléatoire de loi 𝑁(0,1)( la loi
normale centrée réduite en d’autre terme pour tout 𝑥𝜖ℜ
/
𝑃(𝑌 ≤ 𝑥) → ∫ 𝑒 𝑑𝑢

Exemple d’application:
la loi Binomial:
Si 𝑋 suit une loi binomiale B(n, p), alors, quand n est grand,

≈𝑍
( )

Z une variable aléatoire de loi gaussienne centrée réduite .


la loi de poisson :
Si 𝑋 suit une loi de Poisson P(a), alors, quand a est grand,

≈𝑍

Usage
En pratique, les statisticiens observent les règles d'usage suivantes.
1. Si a > 10, on peut approcher la loi de Poisson P(a) par la loi gaussienne N (a, a).
2. Si np > 10 et n(1−p) > 10, on peut approcher la loi binomiale B(n, p) par la loi
gaussienne N (np, np(1 − p)).

3. Si np < 10 et p ≤ , on peut approcher la loi binomiale B(n, p) par la loi de


Poisson P(np).

4. Si n(1 − p) < 10 et p ≥ , on peut approcher la loi binomiale B(n, p) par la loi de n


− X avec X de loi de Poisson P(n(1 − p)).

CONVERGENCE:
Théorème 1.1 (Loi forte des grands nombres) :
Soit (𝑋 )𝑛 ≥ 1 une suite de variables aléatoires indépendantes et de même
loi admettant une espérance 𝑚.
On note :
𝑆𝑛 ∶= 𝑋 +· · · +𝑋 .
Alors il existe un événement A de probabilité 1 tel que pour tout
ω ∈ A, 𝑆 (ω)/n → 𝑚.
On dit que : 𝑆 /𝑛 converge vers 𝑚 .
Loi faible des grands nombres :
Sous les mêmes hypothèses, pour tout t strictement positif,
𝑝(𝑛𝑚 − 𝑛𝑡 ≤ 𝑆 ≤ 𝑛𝑚 + 𝑛𝑡) → 1
On dit que 𝑆 /𝑛 converge vers 𝑚 en probabilité.

Si on répète une même expérience un grand nombre de fois de manière


identique et que l'on regarde le nombre de fois où un résultat R apparaît, la
loi forte des grands nombres montre que la fréquence empirique
d'apparition
de R tend vers la probabilité de R quand le nombre d'expériences tend vers
l'infini.

Convergence en loi:
Pour ce type de convergence, les variables aléatoires peuvent être définies
sur des espaces de probabilité différents.
DÉFINITION :
Une suite de v.a.r. (𝑋 )𝑛∈N converge en loi vers une v.a.r. X si, pour toute
fonction f : R −→ R, continue et bornée,
𝐸[𝑓(𝑋 )] → 𝐸[𝑓(𝑋)] , quand 𝑛 → +∞

Remarque : les v.a.r. 𝑋 peuvent être définies sur des espaces de


probabilité différents puisque les v.a. n’interviennent qu’au travers
d’espérances.
Dans la définition, la continuité de la fonction f est importante. En effet, si
𝑋 est une v.a. prenant les valeurs 1/n et 1 avec probabilité 1/2 alors 𝑋
converge en loi vers X où X prend les valeurs 0 et 1 avec probabilité 1/2
puisque, si f est continue bornée,
𝐸[𝑓(𝑋 )] = (𝑓(1/𝑛) + 𝑓(1))/2 → (𝑓(0) + 𝑓(1))/2 = 𝐸[𝑓(𝑋)]
Pourtant, si on prend 𝑓 = 1{ } qui n’est pas continue au point 0,

𝐸[𝑓(𝑋 )] = 𝑃(𝑋 = 0) = 0, 𝐸[𝑓(𝑋)] = 𝑃(𝑋 = 0) = 1/2


En générale:
si 𝑋 converge en loi vers X, on ne peut pas dire que 𝑃(𝑋 𝜖𝐴) converge
vers 𝑃(𝑋 𝜖𝐴) car 𝑥 → 1 (𝑥) Ce n'est pas une fonction continue.

approximation par la loi normal:


le TCL permet de montrer qu’au-delà d’un certain effectif la plupart des lois
peuvent être approchées par une loi normal, sous condition d'indépendance
loi binomiale:
la variable binomiale est bien une somme des variables indépendante (de
Bernoulli), on sait qu’une loi 𝐵(𝑛; 𝑝) pour espérance np, et pour variance
𝑛𝑝(1 − 𝑝)

donc: 𝛽(𝑛 ; 𝑝 ) ↝ 𝓝(𝑛𝑝 ; 𝑛𝑝 (1 − 𝑝))

A titre d’exemple, on peut avoir….


𝛽(100 ; 0,5) ↝ 𝓝( 50; 5 )
Cet exemple est illustré ci-dessous, les valeurs prises par la loi binomiale
paraissant en bâton et celles de la loi normale figurant sous forme de courbe.
l’échantillon étant important (n=100)
on constate une forte similitude entre les deux distribution
la loi de poisson :
De la même manière, voici la comparaison entre la distribution de la loi de
poisson de paramètre 16 et la loi normale N(16;4). Rappelons que c’est à partir
d’une valeur de paramètre situé autour de 18 que la loi de poisson est approchés
par une loi normale, ce qui explique le décalage bien visible sur la figure:

Exemple :
un joueur lance une pièce équilibrée : lorsqu’il obtient pile, il gagne 100 Euros, lorsqu’il
obtient face, il perd 100 Euros. Estimer le nombre maximal de lancers à effectuer pour que
ce joueur ait plus de 95 chances sur 100 de perdre au plus 2000 euros .
notons 𝑛 le nombre de lancers effectués, la V,a. 𝑆 égale au nombre de piles obtenus sur les
n premiers lancers suit une loi 𝛽(𝑛, 1/2) 𝑒𝑡 𝑙𝑒 𝑔𝑎𝑖𝑛 (𝑎𝑙𝑔é𝑏𝑟𝑖𝑞𝑢𝑒) 𝑣𝑎𝑢𝑡 ∶
𝐺 = 100 x 𝑆 − 100 x (𝑛 − 𝑆 ) = 200𝑆 − 100𝑛
on cherche alors n tel que 𝑃(𝐺 ≥ −2000) ≥ 0,95 𝑜𝑟 {𝐺 ≥ −2000} = {𝑆 − 𝑛/2 ≥
−10}
comme 𝑆 𝓝(0,1) 𝓝(0,1) de loi binomiale, peut être vue comme une somme 𝑆 =
𝜖 +. . . +𝜖 de V.a. de loi 𝑏(1/2), d'après le TCL
/
𝑆∗ = → 𝓝(0,1)
/

si bien qu’on approxime la loi de 𝑆 ∗ par 𝓝(0,1) et donc celle de 𝑆 par la loi normal

𝓝( , ).

chercher n tel que 𝑃(𝐺 ≥ −2000) = 𝑃(𝑆 − 𝑛/2 ≥ −10) ≥ 0,95 revient à estimer 𝑛 tel
que:

𝑃(𝓝(0,1) ≥ −20/√𝑛 ) ≥ 0,95 ou 𝑃(𝓝(0,1) ≤ 20/√𝑛 ) ≥ 0,95


par symétrie de la loi 𝓝(0,1). la table de la loi 𝓝(0,1) donne alors

= 1,65 c’est à dire 𝑛 = ,


= 146

—Partie III Vecteurs Gaussiens—
I. Introduction (et rappel) :
1) Variables aléatoires réelles
Définition : Dans un espace probabilisé (Ω, A, ℙ), on dit de X que c’est une variable
aléatoire réelle (v.a.r) si c’est une application mesurable de (Ω, A) dans (ℝ , Bℝ).

Loi de probabilité de X :

PX(B) = P(X −1 (B)) = P(X ∈ B) = P ({ω ∈ Ω : X(ω) ∈ B})


Pour tout B ∈ Bℝ .

Exemple : X poids d’un individu, X(ω) = 72kg (réalisation de X).

2) Vecteur aléatoire
Définition : Dans un espace probabilisé (Ω, A, ℙ), on appelle X = (X1, . . . , Xn) un vecteur
aléatoire s’il est une application mesurable de (Ω, A) dans (ℝn, Bℝn ).

Loi de probabilité de X (loi conjointe) :

PX(B) = P((X1, . . . , Xn) ∈ B)


Pour tout B ∈ Bℝn .

● Caractérisation de la loi de X ∈ ℝn à l’aide de sa fonction de répartition FX :

∀ (x1, . . . , xn) ∈ ℝn
FX(x1, . . . , xn) = P ([X1 ≤ x1] ∩ . . . ∩ [Xn ≤ xn])
3) Variables Gaussiennes
Définition : Une variable aléatoire réelle X suit la loi Gaussienne d’espérance m et de
variance σ2, notée N(m, σ2), si elle admet la densité de probabilité

(𝑥−𝑚)2
f𝑋 : 𝑥 → √
2𝜎2

Nous utiliserons la convention que σ=0 correspond à δm la masse de Dirac en m (C.à.d. la


loi d’une variable aléatoire égale à m presque sûrement).

II. Vecteurs Gaussiens :


Les vecteurs Gaussiens sont la généralisation naturelle en n dimensions des variables
Gaussiennes uni-dimensionnelles.

Définition : On dit d’un vecteur aléatoire X = t(X1, . . . , Xn) dans ℝn que c’est un vecteur
Gaussien, si pour tout a = t(a1, . . . , an) ∈ ℝn , la variable aléatoire réelle
〈a, Xi〉= a1X1 +. . .+ anXn est Gaussienne (suit la loi normale).

Ce qui veut dire que si l’on considère des variables aléatoires Xi ⇝ N (mi , σ2i )
indépendantes, alors X = t(X1, . . . , Xn) est un vecteur Gaussien.

Remarques :
- Tout vecteur gaussien de dimension 1 est une variable aléatoire gaussienne réelle,
éventuellement dégénérée.
- Si X⇝N(m,Γ), alors 𝔼(𝑋) = 𝑚 et 𝕍(𝑋) = 𝛤 (𝛤 matrice de covariance) . En
particulier, un vecteur gaussien admet un moment d’ordre 2 et, de manière plus
générale, des moments de tout ordre.
- Toutes les composantes de X sont aussi des variables aléatoires gaussiennes
réelles (car elles suivent toutes une loi normale).
- Attention: la réciproque n’est pas forcément vraie! … Il se peut que X1, · · · , Xn
soient des v.a. réelles gaussiennes sans pour autant que le vecteur (X1,· · ·,Xn)t soit
gaussien.

Exemple 1 : Soit X1 ⇝N(m1 , σ21 ) et X2 ⇝N(m2 , σ22 ) deux variables indépendantes. Alors
X=(X1,X2) est un vecteur aléatoir gaussien, car pour tout (a1,a2)∈ ℝ2

N (𝑎 𝑚 + 𝑎 𝑚 , 𝑎 𝜎 + 𝑎 𝜎 )
Exemple 2 : Soit X un vecteur aléatoire de ℝn dont les composantes X i sont
indépendantes et de loi N(mi , σ2i ). Le vecteur X est alors un vecteur gaussien. En effet
toute combinaison linéaire de ses composantes s’écrit a1X1 +. . .+ anXn ,dont la loi est par
indépendance des variables

N (𝑎 𝑚 + · · · + 𝑎 𝑚 , 𝑎 𝜎 + · · · + 𝑎 𝜎 )
1
Exemple 3 : soient X1 ⇝ N1(0, 1) et X2 = εX1, et de loi définie par ℙ(ε = ±1)= .
2

Alors, X2 ⇝ N1(0, 1) mais la fonction caractéristique du vecteur (X1, X2)t n’est pas une
fonction caractéristique gaussienne.

L’Espérance : Soit X=t(X1, . . . , Xn) un vecteur Gaussien. Son espérance est le vecteur

𝑚=𝔼(X)=t(𝔼(X 1), . . . ,𝔼(X n)) ∈ ℝn

La covariance : et sa matrice de covariance est Γ = (Cov(X i ,X j )) avec 1≤ i, j ≤n

définie par ∀(i, j)∈{1,. . .,n}2 Cov(Xi , Xj)=𝔼([Xi −𝔼(Xi)] [Xj − 𝔼(Xj )]) = 𝔼(Xi Xj )−𝔼(Xi)𝔼(Xj )

Proposition (transformée de Fourier) : Soit X = t(X1, . . . , Xn) un vecteur Gaussien,


sa fonction caractéristique φX: ℝn→ ℂ est donnée par

〈 , 〉 〈 , 〉
φX : u → 𝑒
avec :
m = (mj) j∈[1,n] est le vecteur d'espérance de X et
Γ= (Γj,k) (j,k)∈[1,n]×[1,n] est la matrice de covariances de X.
On pourrait l'écrire d’une manière plus détaillée qui nous donnera

𝑖∑ ∑𝑛 ∑𝑛
𝑗=1 𝑢𝑘𝛤𝑗,𝑘𝑢𝑘
φX(𝑢 , . . . , 𝑢 ) = 𝑒 𝑘=1

Démonstration : Soit u = (u1,...,un)∈ℝn et Y=〈𝑢, 𝑋〉= u1X1+...+unXn .


X est un vecteur gaussien, donc Y suit une loi normale.

Cela nous donne alors : 𝔼(𝑌) = 𝔼(∑ 𝑢 𝑋 )=∑ 𝑢 𝑚 et

𝑉𝑎𝑟 (𝑌) = 𝐶𝑜𝑣(𝑌, 𝑌) = 𝐶𝑜𝑣(∑𝑛𝑘=1 𝑢𝑘 𝑋𝑘 , ∑𝑛𝑘=1 𝑢𝑘 𝑋𝑘 ) =


∑𝑛𝑘=1 ∑𝑛𝑗=1 𝑢𝑘 𝛤𝑗,𝑘 𝑢𝑘 .

à partire de là, Y⇝N(∑𝑛𝑘=1 𝑢𝑘 𝑚 𝑘 , ∑ 𝑛


𝑘=1 ∑𝑛
𝑗=1 𝑘 𝛤𝑗,𝑘 𝑘 )

(∑𝑛𝑘=1 𝑢𝑘 𝑚𝑘 ) 𝑡+ (∑𝑛
1
∑𝑛 𝑢𝑘𝛤𝑗,𝑘𝑢𝑘)𝑡2
φY(t)= 𝑒 2 𝑘=1 𝑗=1

φX(𝑢)= 𝔼(𝑒𝑖〈𝑢,𝑋〉 ) = 𝔼(𝑒𝑖 𝑌 ) = φY(1)

Corollaire : La loi d'un vecteur gaussien est entièrement caractérisée par


▪ Son vecteur d'espérance m.
▪ Sa matrice de covariances Γ symétrique et positive.

Démonstration : φX caractérise la loi de X.

Théorème 1:
Soit X un vecteur aléatoire de ℝn . Les assertions suivantes sont équivalentes :
1. Le vecteur X est un vecteur gaussien de moyenne m et de matrice de covariance Γ.
2. La fonction caractéristique de X est donnée par :

〈𝑢,𝑋〉 〈𝑢,𝑚〉
ΦX(u) = 𝔼 (𝑒 )=𝑒 ,∀u ∈ ℝn

Et on note X⇝Nn(m,Γ).

Démonstration : Cette équivalence provient de la définition du vecteur aléatoire gaussien


et de celle de la fonction caractéristique d’une variable aléatoire gaussienne réelle.

La loi d’un vecteur gaussien est caractérisée par son vecteur moyenne 𝑚 et sa matrice de
covariance Γ. Elle est appelée loi gaussienne sur ℝn et est notée N (𝑚, Γ). La loi N (0,In) est
appelée loi gaussienne standard sur ℝn . Un vecteur gaussien ayant cette loi est appelé
vecteur aléatoire gaussien standard.

Remarque :
Cette définition inclut notamment le cas où X suit une loi de Dirac en m (cas Γ=0).
Théorème 2:
Soit X = (X1, ...,Xn) un vecteur gaussien.Les Xi sont indépendants si et seulement si la
matrice Γ de covariance de X est diagonale.

Démonstration : On démontre donc dans les deux sens

- Les Xi sont indépendants ⇒ la matrice Γ de covariance de X est diagonale :

Cela est très facile car on sait que l’indépendance entraîne la non-corrélation.

- Les Xi sont indépendants ⇐ la matrice Γ de covariance de X est diagonale :

Concrètement cette implication veut dire que si Γ est diagonale alors

〈 , 〉 〈 , 〉
φX : u → 𝑒
𝑖∑ ∑𝑛 ∑𝑛 𝑢𝑘 𝛤𝑗,𝑘 𝑢𝑘
donc φX(𝑢 , … , 𝑢 ) = 𝑒 𝑘=1 𝑗=1

∑𝑛 𝛤𝑘,𝑘 𝑢2𝑘
𝑒𝑖

autrement dit φX(𝑢 , … , 𝑢 ) = 𝑘=1

car rappelons le, Γ est diagonale donc 𝛤, =0 ce qui nous donne

𝑖 𝑢𝑘 𝑚𝑘 −12 𝛤 2
φX(𝑢 , … , 𝑢 ) = ∏𝑛𝑘=1 𝑒 𝑘,𝑘 𝑢𝑘

φ𝑋 (𝑢1 , … , 𝑢𝑛 ) = ∏𝑛𝑘=1 φ𝑋 (𝑢𝑘 )

à ce stade on a la fonction caractéristique de X est égale au produit des fonctions


caractéristiques de ses composantes ce qui est une caractérisation de l'indépendance des
variables aléatoires.

Récapitulatif :
- Pour les variables aléatoires quelconques
Indépendance ⇒ Covariance nulle
Indépendance ⇍ Covariance nulle
- Pour les variables aléatoires d’un vecteur Gaussien
Indépendance ⇔ Covariance nulle
Ce qui nous ramène naturellement à la proposition suivante :

Proposition :

Soit 𝑚 ∈ ℝ et 𝑀𝑛×𝑛 (ℝ) symétrique et positive alors Il existe un vecteur gaussien à

valeurs dans ℝ d'espérance 𝑚 et de matrice de covariance .

Proposition (Densité d’un vecteur Gaussien) :


Soit 𝑚 ∈ ℝ et 𝑀𝑛×𝑛 (ℝ) symétrique et positive Il y a équivalence entre

1. est inversible

2. La loi N (m, ) est absolument continue par rapport à la mesure de Lebesgue. La densité
est alors ℝ → ℝ

1 〈 , ( )〉
𝑓(𝑥) = 𝑒
(2𝜋) 𝑑𝑒𝑡𝛤
Exemple : Considérons n variables aléatoires X1,..., Xn indépendantes et de loi,
respectivement N(m1 , σ21 ),...,N(mn , σ2n )

Donc pour i = 1, … , n, la variable aléatoire Xi est de densité

1
𝑓(𝑥) = 𝑒
(2𝜋)𝜎
Puisque les variables aléatoires Xi sont indépendantes, la densité conjointe du vecteur
X1,..., Xn est :

1 𝑥−𝑚𝑖 2
−2 ∑𝑛𝑖=1 𝜎𝑖
𝑓 ,..., (𝑥 , . . . , 𝑥 ) =
( ) ∏ 𝜎𝑖
Théorème Central Limite Vectoriel :
Soient X1, . . . , Xn des vecteurs aléatoires indépendants et de même loi
dans ℝ supposés indépendants et de même loi de carré intégrable. Alors, lorsque n
→ ∞, on a :

√𝑛 𝑋 − 𝑚 𝑁 (0, 𝛤)
𝑋1 +𝑋2 + ...+𝑋𝑛
avec 𝑋𝑛 = 𝑛

Preuve : On calcule pour tout n la fonction caractéristique de Zn=√𝑛 𝑋 − 𝑚

(car rappelons que Zn=√𝑛 et on a 𝑁 (0, 1))


𝜎

∀u ∈ ℝ 𝜙𝑍 (𝑢) = 𝔼 (𝑒 )
On a par le Théorème Central Limite que 𝑍 𝑁 (0, 𝑢𝛤𝑢)

∀u ∈ ℝ 𝜙𝑍 (𝑢) 𝑒
Exemple : Si on prend une pièce de monnaie et qu’on la jette on prenons pile =0 et face =1
on remarquera la fréquence de la somme des valeurs des tirages a une courbe qui se
rapproche d'une courbe en cloche symétrique(caractéristique de la densité de probabilité de la
loi normale) plus le nombre de tirage est grand .

EXERCICES :
Exercice 1 : Soient X et Y deux variables aléatoires indépendantes.
-Donnez une condition nécessaire et suffisante pour que X+Y et X-Y soient aussi
indépendantes.

Corrigé : Nous avons X et Y deux variables gaussiennes indépendante, cela implique


qu’elle peuvent former un vecteur gaussien noté t(X,Y)
Ce qui veut dire que t(X+Y,X-Y) est aussi un vecteur gaussien.
Donc X+Y et X-Y indépendants ⇔ Cov(X+Y,X-Y)=0
Cov(X+Y,X-Y)=0⇔Cov(X,X-Y)+Cov(Y,X-Y)=0
⇔Cov(X,X)-Cov(X,Y)+Cov(Y,X)-Cov(Y,Y)=0
⇔Var(X)-Var(Y)=0
⇔Var(X)=Var(Y)
Donc pour que X+Y et X-Y soient indépendants il faut que Var(X)=Var(Y) .

Exercice 2 : Soit X=(X1,X2,X3) un vecteur gaussien de moyenne m=t(3,-5,10) et sa matrice


de covariance 𝛤X telle que

2 1 0
𝛤 X= 1 1 0
0 0 1
-Donnez la loi de Y=3X1+2X2-X3

Corrigé :
Y=(3,2,-1)X
Y suit une loi normale N(Am,A𝛤XAt)
Donc la moyenne de Y appelée mY =Am
mY =(3,2,-1) t(3,-5,10)
mY =9 -10 -10
mY = -11

et la variance 𝜎2 =A𝛤XAt
𝜎2 =(8, 5, -1) t(3, 2, -1)
𝜎2 =24+10+1=35
Y⇝N(-11,35) C.Q.F.D

Exercice 3 : Soient X = (X1, . . . , Xn) et Y = (Y1, . . . , Yn) deux vecteurs aléatoires


gaussiens centrés sur un espace probabilisé (Ω, A, ℙ), supposés indépendants et de même
loi.
Pour tout réel θ, soient X(θ) = X sin(θ) + Y cos(θ) et X’(θ) = X cos(θ) − Y sin(θ); démontrer
que pour tout θ, X(θ) et X’ (θ) sont des vecteurs aléatoires gaussiens indépendants de
même loi que X.

Corrigé : Comme X et Y sont indépendants, le couple Z = (X, Y) est un vecteur gaussien


(centré) de ℝ2n .

Pour tout θ ∈ ℝ, il en va de même du couple Z(θ) = (X(θ), X’ (θ)) car toute combinaison
linéaire des coordonnées de Z(θ) est une combinaison linéaire des coordonnées de (X,Y)
Par indépendance, la matrice de covariance de Z dans ℝ2n est une matrice à blocs de la
forme

𝛤 0
0 𝛤
où 𝛤 est la matrice de covariance n × n commune à X et Y (et 0 la matrice n × n nulle). La
suite de la démonstration va consister à montrer que, pour tout θ ∈ ℝ, la matrice de
covariance de Z(θ) est la même que celle-ci, ce qui démontrera à la fois l’indépendance de
X(θ) et X’ (θ) et le fait qu’ils ont tous deux la même loi que X et Y . Par centrage, il revient à
examiner𝔼(𝑍(𝜃)𝑘 𝑍(𝜃)𝑙 ) pour 𝑘, 𝑙 = 1, . . . , 2𝑛. Trois cas sont à étudier.

Pour 𝑘, 𝑙 = 1, . . . , 𝑛 :

𝔼(𝑍(𝜃)𝑘 𝑍(𝜃)𝑙 ) = 𝔼(𝑋(𝜃)𝑘 𝑋(𝜃)𝑙 )


= 𝔼[(𝑋 𝑠𝑖𝑛(𝜃) + 𝑌 𝑐𝑜𝑠(𝜃)) (𝑋 𝑠𝑖𝑛(𝜃) + 𝑌 𝑐𝑜𝑠(𝜃))]

= 𝑠𝑖𝑛2 (𝜃) 𝔼(𝑋𝑘 𝑋𝑙 ) + 𝑐𝑜𝑠2 (𝜃) 𝔼(𝑌𝑘 𝑌𝑙 )

où il a été utilisé que, par indépendance de X et Y, 𝔼(𝑋 𝑌 ) = 0 et 𝔼(𝑋 𝑌 ) = 0 .

Comme X et Y ont la même loi, il s’ensuit que 𝔼(𝑍(𝜃)𝑘 𝑍(𝜃)𝑙 ) = 𝛤𝑘,𝑙 pour tout 𝑘, 𝑙 =
1, . . . , 𝑛

Un raisonnement similaire indique que 𝔼(𝑍(𝜃)𝑛+𝑘 𝑍(𝜃)𝑛+𝑙 ) = 𝛤𝑘,𝑙 pour tout 𝑘, 𝑙 = 1, . . . , 𝑛.


En revanche, pour 𝑘, 𝑙 = 1, . . . , 𝑛,

𝔼(𝑍(𝜃)𝑘 𝑍(𝜃)𝑛+𝑙 ) = 𝔼(𝑋(𝜃)𝑘 𝑋(𝜃)𝑙 )


= 𝔼[(𝑋𝑘 𝑠𝑖𝑛(𝜃) + 𝑌𝑘 𝑐𝑜𝑠(𝜃)) (𝑋𝑙 𝑐𝑜𝑠(𝜃) − 𝑌𝑙 𝑠𝑖𝑛(𝜃))]
= 𝑠𝑖𝑛(𝜃)𝑐𝑜𝑠(𝜃) (𝔼(𝑋 𝑋 ) − 𝔼(𝑌 𝑌 ))

qui est toujours nul car X et Y sont de même loi. ll en va de même pour𝔼(𝑍(𝜃)𝑛+𝑘 𝑍(𝜃)𝑙 ).
Ainsi Z(θ) a même matrice de covariance que Z, ce qui conclut la démonstration

Exercice 4 : Soit X=(X1,X2,X3,X4) un vecteur gaussien de ℝ4 de moyenne m =t(3,-2,1,4) et


la matrice de covariance 2 1 0 1
𝛤 X= 1 1 0 1
0 0 1 0
1 1 0 2
1) Donner la loi de Y=(X1-X2 , 4X2+X3 , X4-X2)
2) Vérifier l’indépendance des 3 variables

Corrigé :
1) Y=AX

Y1 1 -1 0 0

Y2 = 0 4 1 0 (X1,X2,X3,X4)T
Y3 0 -1 0 1
mY=Am

1 -1 0 0

= 0 4 1 0 (3,-2,1,4)T
0 -1 0 1

=(5,-7,6)T
Pour ce qui est de 𝛤y

𝛤y= A𝛤XAt

1 -1 0 0 2 1 0 1 1 0 0
= 0 4 1 0 1 1 0 1 -1 4 -1
0 -1 0 1 0 0 1 0 0 1 0
1 1 0 2 0 0 1
1 0 0
= 0 17 0
0 0 1
5 1 0 0
Donc Y=(Y1,Y2,Y3)=(X1-X2 , 4X2+X3 , X4-X2)⇝N -7 , 0 17 0
6 0 0 1

3) Depuis la matrice de covariance, on remarque que Y1,Y2,Y3 sont bien indépendantes.


Sommaire
1.1. FONCTION GÉNÉRATRICE : ………………..……………………… .1
a)Fonction génératrice des probabilités d’une variable aléatoire :...1
Définition, Propriétés, lois usuelles, exemples ………………………..1
b)Fonction génératrice des moments ...…………………………………2
b. 1) Fonction génératrice des moments d’une v.a.discrète………...2
b. 2) Fonction génératrice des moments d’une v.a.continue.……….3
1.2 . FONCTION CARACTÉRISTIQUE :.................................................4
Propriétés élémentaires de la fonction caractéristique : ...................4
Proposition, lois usuelles ………………………………………………..4
Exercices ……………………………………………………………………5 2
. THÉORÈME CENTRALE LIMITE ………………………………………8
Cadre d'utilisation……………………………………………………………8
théorème,Exemple d’application…………………………………………9
CONVERGENCE……………………………………………………….……..9
Loi forte des grands nombres……………………………………………..9
Loi faible des grands nombres, Convergence en loi………………10
approximation par la loi normal, loi binomiale, loi de poisson …..11
Exemple ……………………………………………………………………..12
3 .Vecteurs Gaussiens (Introduction).................................................13
Vecteurs Gaussiens………………………………………………………13
Définition, Remarques, Exemples ………………………………………14
Espérance, Covariance, Transformée de Fourier…………………..14
Corollaire, Théorème 1 ……………………………………………………15
Théorème 2 + Récapitulatif……………………………………………..16
Proposition+ Densité d’un vecteur Gaussien+Exemples …………..17
Preuve+Exemple……………………………………………………………18
EXERCICES………………………………………………………………….18
Fin……………………………………………………………………………..20

Vous aimerez peut-être aussi