Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

ECS2 TD7 Correction

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 13

ECS2 Lycée Louis Pergaud

TD7
Couples de variables aléatoires discrètes

Loi d’un couple, lois marginales et conditionnelles


Exercice 7.1 (F)
On considère un couple (X, Y ) de variables aléatoires réelles à valeurs dans N pour lequel il existe un réel a tel
1 a
que la loi de (X, Y ) soit définie par : ∀(i, j) ∈ N2 , P ([X = i] ∩ [Y = j]) = .
j! 2i+j
1. Déterminer a.
2. Déterminer les lois marginales.

3. Les variables X et Y sont-elles indépendantes ?

Exercice 7.2 (FF)


On désigne par n un entier naturel non nul et on considère n urnes numérotées de 1 à n. On suppose que pour
tout entier k compris entre 1 et n, l’urne numéro k contient k boules numérotées de 1 à k.
On choisit au hasard une urne parmi les n et dans cette urne on tire au hasard une boule.
On note X la variable aléatoire égale au numéro de l’urne choisie et N la variable aléatoire égale au numéro
porté par la boule obtenue.
1. Reconnaitre la loi de X, ainsi que la loi de N sachant [X = i] pour tout i ∈ X(Ω).

2. Déterminer la loi du couple (X, N ).


3. En déduire la loi de N sous forme de somme.
4. Calculer l’espérance et la variance de N .

Exercice 7.3 (FFF - QSP HEC 2014)


Soient X et Y deux variables aléatoires définies sur un même espace probabilisé (Ω, A , P ), à valeurs dans N
telles que :
a
∀(i, j) ∈ N2 , P ([X = i] ∩ [Y = j]) = .
(i + j + 1)!
Déterminer le réel a. Les variables X et Y sont-elles indépendantes ?

X
Le réel a doit être positif. De plus on doit calculer la série double P (X = i, Y = j) qui doit converger
et dont la somme doit valoir 1. Pour cela, étant donné la présence de i + j dans le terme général, on
va procéder à une somme suivant les diagonales (comme tout est positif, inutile de mettre des valeurs
absolues) :
• Pour tout n ∈ N, on a :
X X a a a
P (X = i, Y = j) = = (n + 1) =
i+j=n i+j=n
(n + 1)! (n + 1)! n!

car, rappelons le, le cardinal de In = {(i, j) ∈ N2 , i + j = n} est n + 1.


X a
• La série converge car c’est une série exponentielle, et sa somme vaut ae1 .
n!
n≥0
X
Par le théorème de sommation suivant les diagonales, la série double P (X = i, Y = j) converge et elle
vaut ae1 . Ainsi on a a = e−1 .

1
ECS2 Lycée Louis Pergaud

Étudions à présent l’indépendance de X et Y . On a :


+∞ +∞ +∞
X X e−1 X 1
P (X = 0) = P (X = 0, Y = j) = = e−1 ( ) = e−1 (e − 1) = 1 − e−1 .
j=0 j=0
(j + 1)! j=1
j!

De même on a P (Y = 0) = 1 − e−1 , et on a P (X = 0, Y = 0) = e−1 . Ainsi on a pas

P (X = 0, Y = 0) = P (X = 0)P (Y = 0).

Donc les variables X et Y ne sont pas indépendantes.

Fonctions de deux variables discrètes


Exercice 7.4 (F)
Soient X et Y deux variables aléatoires indépendantes suivant la même loi de Poisson de paramètre λ > 0.
X
Justifier que possède une espérance et la calculer.
1+Y

Exercice 7.5 (FF)


Soient X et Y deux variables indépendantes, définies sur le même espace probabilisé (Ω, A , P ) telles que
X ,→ P(λ) et Y ,→ G (p), p ∈]0, 1[.
Pour tout ω ∈ Ω, on définit une matrice A(ω) par :

Y (ω) − 1
 
X(ω)
A(ω) = .
Y (ω) − 1 X(ω)

Déterminer la probabilité que A(ω) soit inversible.

A(ω) n’est pas inversible si et seulement si det(A(ω)) = 0, ce qui équivaut à :

X(ω)2 − (Y (ω) − 1)2 = 0 ⇔ (X(ω) − Y (ω) + 1)(X(ω) + Y (ω) − 1) = 0


⇔ X(ω) − Y (ω) + 1 ou X(ω) + Y (ω) − 1
⇔ X(ω) = Y (ω) − 1 ou X(ω) = −Y (ω) + 1

Or X ≥ 0 et −Y + 1 ≤ 0. Donc on a finalement que A(ω) est inversible si et seulement si

X(ω) = Y (ω) − 1 ou X(ω) = 0 = −Y (ω) + 1 ⇔ X(ω) = Y (ω) − 1

Ainsi la probabilité pour que A ne soit pas inversible est égale à P (X = Y − 1). Reste à calculer cette
probabilité. On utilise le système complet d’évènements ([Y = k])k≥1 et la formule des probabilités totales
:
+∞
X +∞
X
P (X = Y − 1) = P (X = Y − 1, Y = k) = P (X = k − 1, Y = k)
k=1 k=1
+∞
X
= P (X = k − 1)P (Y = k) car les variables sont indépendantes
k=1
+∞ +∞
X (λ(1 − p))k−1
X λk−1 −λ
= e (1 − p)k−1 p = pe−λ = pe−λ eλ(1−p) = pe−λp
(k − 1)! (k − 1)!
k=1 k=1

Finalement, la probabilité que A soit inversible est donc égale à 1 − pe−λp .

Exercice 7.6 (FF)


Soient X et Y deux variables aléatoires indépendantes, telles que X suit la loi P(λ) et Y suit la loi P(µ).
Déterminer la loi de X sachant [X + Y = n].

2
ECS2 Lycée Louis Pergaud

On a X([X + Y = n]) = J0, nK. Pour tout k ∈ J0, nK, on a :

P ([X = k] ∩ [X + Y = n]) P ([X = k] ∩ [Y = n − k])


P[X+Y =n] (X = k) = =
P (X + Y = n) P (X + Y = n)
P (X = k)P (Y = n − k)
=
P (X + Y = n)

car X et Y sont indépendantes. De plus, par stabilité de la loi de Poisson, on a X + Y ,→ P(λ + µ). On
obtient donc :
n−k
λk −λ µ −µ k  n−k
k! e (n−k)! e λk µn−k
 
n! n λ µ
P[X+Y =n] (X = k) = = =
(λ+µ)n −(λ+µ)
e k!(n − k)! (λ + µ)n k λ+µ λ+µ
n!

Ainsi la loi de X sachant [X + Y = n] est une loi binomiale B(n, λ+µ


λ
).

Exercice 7.7 (FF)


Soit X et Y deux variables aléatoires indépendantes d’un même espace probabilisé (Ω, A , P ) et suivant la même
loi G (p).
1. Déterminer la loi de la variable aléatoire X + Y . Admet-elle une espérance ?
2. Déterminer la loi de la variable aléatoire S = sup(X, Y ). Admet-elle une espérance ?
3. Déterminer la loi de la variable aléatoire I = inf(X, Y ). Admet-elle une espérance ?
4. Montrer que la variable aléatoire SI admet une espérance et la calculer.

Exercice 7.8 (FFF - Minimum, maximum de lois uniformes)


On considère une urne contenant n boules numérotées de 1 à n, et on effectue des tirages avec remise dans cette
urne. On note X le numéro de la première boule extraite, et Y le numéro de la seconde. On note également I
le plus petit des numéros tirés, et S le plus grand.
1. Donner la loi de I et de S.
(n + 1)(4n − 1) (n + 1)(2n + 1) (n + 1)(n − 1)(2n2 + 1)
2. Montrer que E(S) = , E(I) = , puis que V (S) = V (I) = .
6n 6n 36n2
n2 − 1
3. Déterminer une relation liant X, Y, S et I. En déduire V (S + I), puis ρS,I = .
2n2 + 1

1. On a X, Y ,→ U (J1, nK), donc I(Ω) = J1, nK.

Pour tout k ∈ J1, nK, on a [I > k] = [X > k] ∩ [Y > k] et donc :


 2
n−k
P (I > k) = P (X > k)P (Y > k) = P (X > k)2 = .
|{z} |{z} n
X,Y indép. X,Y de même loi

2
n−0

Notons que cette égalité est encore vraie pour k = 0 car P (I > 0) = 1 = . On obtient
n
alors que k ∈ J1, nK :
2 2
n−k+1 2n − 2k + 1
 
n−k
P (I = k) = P (I > k − 1) − P (I > k) = − = .
n n n2

La loi de S avait été déterminée en cours, on avait obtenu S(Ω) = J1, nK et :


 2  2
k k−1 2k − 1
∀k ∈ J1, nK, P (S = k) = − = .
n n n2

3
ECS2 Lycée Louis Pergaud

2. I et S étant des variables aléatoires finies, elles admettent une espérance et une variance. Pour I,
on a :
n n n
! n
!
X X 2n − 2k + 1 2n + 1 X 2 X 2
E(I) = kP (I = k) = k = k − 2 k
n2 n2 n
k=1 k=1 k=1 k=1
2n + 1 n(n + 1) 2 n(n + 1)(2n + 1)
= − 2
n 2 2 n 6
3(n + 1)(2n + 1) − 2(n + 1)(2n + 1) (n + 1)(2n + 1)
= =
6n 6n
D’autre part, on a :
n n n
! n
!
X X 2n − 2k + 1 2n + 1 X 2 X
E(I ) =
2
k P (I = k) =
2
k 2
= k 2
− 2 k 3
n n2 n
k=1 k=1 k=1 k=1
2n + 1 n(n + 1)(2n + 1) 2 n2 (n + 1)2
= −
n2 6 n2 4
6n(n + 1)(2n + 1) − 18n (n + 1)2 n(n + 1) 6(4n2 + 4n + 1) − 18(n2 + n)
 
2 2
= =
 2 36n 36n2
2

n(n + 1) 6n + 6n + 6

=
36n2
Par la formule de Huygens, on obtient donc :

n(n + 1) 6n2 + 6n + 6 (n + 1)2 (2n + 1)2


 
V (I) = E(I ) − E(I) =
2 2

36n2 36n2
6n3 + 6n2 + 6n − 4n3 − 8n2 − 5n − 1 2n3 − 2n2 + n − 1
= (n + 1) = (n + 1)
36n 2 36n2
(n + 1)(n − 1)(2n + 1)
2
=
36n2
On procède de manière similaire pour S, je vous laisse le faire en exercice.

3. On a S + I = X + Y , et puisque X et Y sont indépendantes :

n2 − 1 n2 − 1 n2 − 1
V (S + I) = V (X + Y ) = V (X) + V (Y ) = + = .
12 12 6
On obtient alors la covariance :
1 1 n2 − 1 (n2 − 1)(2n2 + 1)
 
Cov(S, I) = (V (S + I) − V (S) − V (I)) = −
2 2 6 18n2
n2 − 1 3n2 − 2n2 − 1 (n2 − 1)2
= × =
2 18n 2 36n2
On en déduit que :
Cov(I, S) Cov(I, S) n2 − 1
ρI,S = p = = 2 .
V (I)V (S) V (I) 2n + 1

Exercice 7.9 (FFF - Somme de lois uniformes)


Soit n ≥ 1, et X, Y des variables indépendantes suivant la loi U (J1, nK).
Déterminer la loi de Z = X + Y .
Pour le calcul P (X + Y = k), on pourra distinguer les cas k ≤ n + 1 et k > n + 1.

Exercice 7.10 (FFF - QSP HEC 2012)


Les variables aléatoires sont définies sur un espace probabilisé (Ω, A , P ).
Soit X une variable aléatoire qui suit la loi de Poisson de paramètre λ > 0, et soit Y une variable aléatoire
1
indépendante de X telle que : Y (Ω) = {1, 2}, P (Y = 1) = P (Y = 2) = . On pose : Z = XY .
2
1. Déterminer la loi de Z.

4
ECS2 Lycée Louis Pergaud

2. Quelle est la probabilité que Z prenne des valeurs paires ?

1. On a X(Ω) = N et Y (Ω) = {1, 2}, donc Z(Ω) = N. Soit k ∈ N, on a deux cas possibles :
• k est impair, soit de la forme k = 2p + 1 avec p ∈ N : ([Y = 1], [Y = 2]) est un système complet
d’évènements. Par la formule des probabilités totales, on a :

P (Z = 2p + 1) = P (Y = 1, XY = 2p + 1) + P (Y = 2, XY = 2p + 1)
= P (Y = 1, X = 2p + 1) + P (Y = 2, 2X = 2p + 1)
= P (Y = 1)P (X = 2p + 1) + P (Y = 2)P (2X = 2p + 1) par indépendance
1 λ 2p+1
1 1 λ −λ k
= e−λ + × 0 = e
2 (2p + 1)! 2 2 k!

• k est pair, soit de la forme k = 2p avec p ∈ N : toujours avec le SCE ([Y = 1], [Y = 2]), on a :

P (Z = 2p) = P (Y = 1, XY = 2p) + P (Y = 2, XY = 2p) = P (Y = 1, X = 2p) + P (Y = 2, 2X = 2p)


= P (Y = 1)P (X = 2p) + P (Y = 2)P (X = p) par indépendance
1 λ2p −λ 1 λp −λ e−λ λk λk/2
 
= e + e = +
2 (2p)! 2 p! 2 k! (k/2)!

2. On cherche la probabilité de ∪p∈N [Z = 2p]. Puisque ces évènements sont incompatibles, cette
probabilité est égale à :
+∞ +∞ 
e−λ X λ2p λp
X 
P (Z = 2p) = +
p=0
2 p=0 (2p)! p!

X λp
La série converge et sa somme vaut eλ .
p!
p≥0
X λ2p
On étudie l’autre série : il s’agit de “la série exponentielle à laquelle on ne garde que
(2p)!
p≥0
les termes pairs”. En d’autres termes, il s’agit de la partie paire de l’exponentielle. En effet on se
souvient que toute fonction f de R dans R se décompose de manière unique en la somme d’une
f (x) + f (−x) f (x) − f (−x)
fonction paire p : x 7→ et d’une fonction impaire i : x 7→ (on peut le
2 2
faire par Analyse-Synthèse). On est donc amené à considérer :
+∞  k
ex + e−x 1X xk

x
= + (−1)k .
2 2 k! k!
k=0

xk xk 
+ (−1)k 0 si k impair
Or on a k! k! = k . On obtient donc que :
2 x si k pair
k!
+∞
ex + e−x X λ2p
= .
2 p=0
(2p)!

X λ2p ex + e−x
Ainsi la série converge et sa somme vaut .
(2p)! 2
p≥0

Finalement, comme tout converge, on peut écrire :


+∞ +∞ p
!
e−λ X λ2p e−λ eλ + e−λ 3 e−2λ
 
X λ
+ = + eλ = +
2 p=0
(2p)! p=0 p! 2 2 4 4

5
ECS2 Lycée Louis Pergaud

3 e−2λ
Ainsi la probabilité que Z soit paire est de + .
4 4

Covariance, corrélation linéaire


Exercice 7.11 (F)
Soit un couple (X, Y ) de variables aléatoires dont la loi conjointe est donnée par :
HH Y
HH b1 b2 b3
X H ,
a1 0 1
5
1
5
1 1
a2 5 5 α

avec ai 6= aj et bi 6= bj si i 6= j.
1. Que vaut α ? Déterminer les lois marginales de X et de Y .
(a2 − a1 )(2b1 − b2 − b3 )
2. Montrer que Cov(X, Y ) = .
25
3. Les variables aléatoires X et Y sont-elles indépendantes ?

Exercice 7.12 (F - )
Soit (X, Y ) un couple de variables aléatoires de Bernoulli.
1. Montrer que Cov(X, Y ) = P ([X = 1] ∩ [Y = 1]) − P ([X = 1])P ([Y = 1]).
2. Montrer que deux variables aléatoires de Bernoulli sont indépendantes si et seulement si elles sont non
corrélées.

a) Notons tout d’abord que XY uniquement les valeurs 0 et 1, et suit donc une loi de Bernoulli de
paramètre p = P (XY = 1) = P ([X = 1] ∩ [Y = 1]). Ainsi on a :

E(XY ) = p = P ([X = 1] ∩ [Y = 1]).

Par la formule de Huygens, on a donc (toutes les variables sont finies, donc elles admettent bien des
espérances et variances) :

Cov(X, Y ) = E(XY ) − E(X)E(Y ) = P ([X = 1] ∩ [Y = 1]) − P (X = 1)P (Y = 1).

b) On sait déjà que deux variables indépendantes sont non corrélées, c’est à dire que Cov(X, Y ) = 0. Mais
la réciproque est fausse en générale !!! On va montrer que c’est cependant vrai si les variables suivent
une loi de Bernoulli toutes les deux. Supposons donc que Cov(X, Y ) = 0. Avec le calcul précédent, on
obtient donc l’égalité :
P ([X = 1] ∩ [Y = 1]) = P (X = 1)P (Y = 1).
La famille ([X = 1], [Y = 1]) d’évènement est donc indépendante. Par le cours, on sait qu’il en est
alors de même de toute famille construite à partir de celle-ci en remplaçant l’un des évènement par son
évènement contraire. Ce qui donne donc que pour tout (i, j) ∈ {0, 1}2 :

P ([X = i] ∩ [Y = j]) = P (X = i)P (Y = j).

D’où l’indépendance de X et Y .

6
ECS2 Lycée Louis Pergaud

Exercice 7.13 (FF)


Une urne contient r boules rouges, v boules vertes et b boules bleues. On tire n boules dans l’urne successivement
et avec remise. On note R (resp. V , B) la variable aléatoire égale au nombre de boules rouges (resp. vertes,
bleues) tirées.
1. Reconnaître les lois de R, V , B. Déterminer une relation liant R, V et B.
rv
r
2. Calculer V (R + V ), puis montrer que ρR,V = − . Que peut-on en déduire ?
(b + r)(b + v)

3. Que peut-on dire si b = 0 ? Était ce prévisible ?

Exercice 7.14 (FF)


Soit p ∈]0, 1[, et soit (X, Y ) un couple de variables aléatoires à valeurs dans N dont la loi conjointe est donnée
par : (
λ(1 − p)k si k ≥ n
∀(n, k) ∈ N , P ([X = n] ∩ [Y = k]) =
2
0 sinon
1. Déterminer la valeur de λ.
2. Déterminer les lois marginales du couple (X, Y ). Quelle est la loi de X + 1 ? En déduire E(X) et V (X).
3. Montrer que X et Y − X suivent la même loi.
4. Montrer que X et Y − X sont indépendantes. En déduire Cov(X, Y ). X et Y sont-elles indépendantes ?

(
λ(1 − p)k si k ≥ n
1. Notons pour tout (n, k) ∈ N2 , pn,k = . Notons pour commencer que λ ≥ 0
0 sinon
puisqu’une probabilité est nécessairement positive, et que les pn,k sont donc tous positif. On va
montrer que la famille (pn,k ) est sommable (ce qui est sous-entendu dans l’énoncé puisque ([X =
n] ∩ [Y = k]) est un SCE) et que sa somme vaut 1. Appliquons pour cela le théorème de Fubini :
X
• Pour tout k ≥ 0, pn,k converge car pn,k = 0 si n > k. Il y a donc un nombre fini de termes
n≥0
non nuls dans cette série, et sa somme vaut donc :
+∞
X k
X
pn,k = λ(1 − p)k = λ(k + 1)(1 − p)k .
n=0 n=0

X
• La série λ(k +1)(1−p)k est une série géométrique dérivée, avec 1−p ∈]−1, 1[. Elle converge
k≥0
donc également.
On peut donc conclure que la famille (pn,k ) est sommable, et sa somme vaut :
+∞ X
+∞ +∞ +∞
X X X λ
pn,k = λ (k + 1)(1 − p)k = λ k(1 − p)k−1 = .
n=0 k=0
(1 − (1 − p))2
k=0 k=1

Ainsi on a λ = p2 .
2. Calculons la loi marginale de X, à l’aide de la FPT et du SCE ([Y = k])k∈N . Pour tout n ∈ X(Ω) =
N, on a :
+∞
X +∞
X
P (X = n) = P (X = n, Y = k) = P (X = n, Y = k)
k=0 k=n
+∞
X 1
=λ (1 − p)k = λ(1 − p)n = (1 − p)n p.
1 − (1 − p)
k=n

7
ECS2 Lycée Louis Pergaud

En particulier, si on pose Z = X + 1, on a Z(Ω) = N∗ et pour tout n ∈ N∗ :

P (Z = n) = P (X = n − 1) = (1 − p)n−1 p.

Donc Z suit une loi G (p). On en déduit en particulier que X = Z + 1 admet une espérance et une
variance et qu’on a :
1 1−p
E(X) = E(Z + 1) = E(Z) + 1 = +1 et V (X) = V (Z + 1) = V (Z) = .
p p2

Déterminons à présent la loi de Y . On a Y (Ω) = N et pour tout k ∈ N (à l’aide de la FPT avec le


SCE ([X = n])) :
+∞
X k
X
P (Y = k) = P (X = n, Y = k) = P (X = n, Y = k) = (k + 1)p2 (1 − p)k .
n=0 n=0

3. A priori, on a (Y − X)(Ω) ⊂ Z. Soit k ∈ Z, k < 0, on a à l’aide de la FPT :


+∞
X +∞
X +∞
X
P (Y − X = k) = P (X = n, Y − X = k) = P (X = n, Y = k + n) = pn,k+n = 0
n=0 n=0 n=0

car k + n < n pour tout n ∈ N. Supposons à présent k ≥ 0. En reprenant le calcul précédent, on


obtient :
+∞
X
P (Y − X = k) = P (X = n, Y = k + n)
n=0
+∞
X 1
=λ (1 − p)k+n = p2 (1 − p)n = p(1 − p)k
n=0
1 − (1 − p)

On constate que X et Y − X suivent bien la même loi.


4. Pour tout (n, k) ∈ N∗ , on a d’une part que :

P (X = n, Y − X = k) = P (X = n, Y = k + n) = p2 (1 − p)k+n ,

et d’autre part :

P (X = n)P (Y − X = k) = (1 − p)n p(1 − p)k p = p(1 − p)k+n .

Ces deux quantités sont donc égales, de sorte que X et Y − X sont indépendantes. On en déduit
que :
0 = Cov(X, Y − X) = Cov(X, Y ) − Cov(X, X)
1−p
par linéarité à droite de la covariance. D’où Cov(X, Y ) = V (X) = 6= 0, et X et Y ne sont pas
p2
indépendantes.

Exercice 7.15 (FF)


Soit n ∈ N, n ≥ 2. Une urne contient n boules numérotées de 1 à n. On tire deux boules successivement et sans
remise dans cette urne. Soit X la variable aléatoire égale au premier numéro obtenu et Y la variable aléatoire
égale au deuxième numéro obtenu.
1. Déterminer la loi du couple (X, Y ) ainsi que ses lois marginales.
(n + 1)(3n + 2)
2. Montrer que E(XY ) = .
12
3. En déduire la covariance et le cœfficient de corrélation linéaire de X et Y .
4. Exprimer sous forme factorisée la variance V (X + Y ).

8
ECS2 Lycée Louis Pergaud

Exercice 7.16 (FF)


Soit p ∈]0; 1[ et n > 2. On considère n joueurs de basket-ball qui tirent chacun deux lancers francs. On considère
qu’à chaque lancer, un joueur à une probabilité p de marquer, et que les deux lancers sont indépendants. On
note X la variable aléatoire égale au nombre de joueurs ayant marqué leur premier lancer franc, et Z la variable
aléatoire égale au nombre de joueurs ayant marqué au moins un lancer franc.
1. Déterminer la loi de X.
2. Montrer que Z suit une loi binomiale, donner son espérance et sa variance.

3. On pose Y = Z − X. Que représente la variable aléatoire Y ? Déterminer sa loi.


4. Les variables X et Y sont-elles indépendantes ? Calculer Cov(X, Y ).

1. X représente le nombre de succès dans une succession d’épreuves de Bernoulli identiques (réussir ou
non son premier lancer franc) et indépendantes (les joueurs lancent de façon indépendante les uns
des autres). Elle suit donc une loi binomiale B(n, p).
2. La probabilité qu’un joueur rate ses deux lancers est (1 − p)2 (par indépendance des deux lancers),
et donc la probabilité qu’il marque au moins un des deux lancers est 1 − (1 − p)2 . On en déduit que
Z ,→ B(n, 1 − (1 − p)2 ).
3. Y représente le nombre de joueurs ayant marqué uniquement leur second lancer franc. Comme pour
chaque joueur, ceci se produit avec probabilité p(1 − p), on en déduit que Y ,→ B(n, p(1 − p)).
4. Les variables X et Y ne sont pas indépendantes, puisque par exemple P (X = n)P (Y = n) 6= 0 alors
que :
P (X = n, Y = n) = 0
puisqu’on ne peut pas avoir à la fois n joueurs qui réussissent peur premier lancer franc, et n joueurs
qui réussissent uniquement leur second lancer franc.

On connait V (X + Y ) = V (Z) = n(1 − (1 − p)2 )(1 − p)2 . On peut obtenir la covariance par la
formule :
1
Cov(X, Y ) = (V (X + Y ) − V (X) − V (Y ))
2
n
= ((1 − (1 − p)2 )(1 − p)2 − p(1 − p) − p(1 − p)(1 − p(1 − p))
2
n(1 − p)
= (2p − p2 − 2p2 + p3 − p − p + p2 − p3 ) = −n(1 − p)p2
2

Remarques.
• On aurait pu commencer par calculer la covariance, constater qu’elle est non nulle, et en déduire
que X et Y ne sont pas indépendantes.
• On a une covariance négative. Cela signifie qu’en moyenne, quand X augmente, Y a tendance
à diminuer, et vice-versa. Cela semble conforme à l’intuition : plus le nombre de joueurs
marquant leur premier panier est important, plus le nombre joueurs manquant le premier et
réussissant le second est faible.

Exercice 7.17 (FF)


On lance n dés équilibrés à 6 faces. On note X le nombre de numéros distincts qui sont sortis lors des n lancers,
et pour tout i ∈ {1, · · · , 6}, on note Xi la variable de Bernoulli qui vaut 1 si et seulement si le numéro i est
apparu.
1. Déterminer la loi des variables Xi .

2. Déterminer l’espérance de X.
3. Pour tout (i, j) ∈ J1, 6K2 , déterminer la loi de Xi Xj . En déduire Cov(Xi , Xj ). Les variables aléatoires Xi
et Xj sont-elles indépendantes ?

9
ECS2 Lycée Louis Pergaud

4. Déterminer V (X).

Exercice 7.18 (FF)


On suppose que le nombre de personnes qui se présentent à l’entrée d’un cinéma en une heure est une variable
aléatoire X qui suit une loi de Poisson de paramètre λ > 0. Le cinéma comporte N ≥ 3 caisses, et on suppose
que chaque personne choisit au hasard sa caisse parmi les N . Pour i ∈ J1, N K, on note Xi le nombre de personnes
ayant choisi la caisse numéro i.
1. Déterminer la loi de Xi conditionnellement à l’événement [X = n], puis la loi de Xi .

2. Déterminer, sans nouveaux calculs la loi de X1 + X2 .


3. En déduire la covariance de X1 et X2 .
4. Déterminer le coefficient de corrélation linéaire entre X1 et X.

5. (F) Les variables aléatoires X1 et X2 sont-elles indépendantes ?

1. La loi de Xi conditionnellement à [X = n] est une loi binomiale B(n, N1 ). En effet, chacune des
n personnes arrivant au cinéma choisit de façon indépendante et équiprobable l’un des N guichets.
1
Chaque personne a donc une probabilité de de choisir la caisse i.
N
On a Xi (Ω) = N. Les évènements [X = n] pour n ∈ N forment un SCE. Par la formule des
probabilités totales, on a donc pour tout k ∈ N :
+∞
X +∞
X
P (Xi = k) = P (Xi = k, X = n) = P (Xi = k, X = n)
n=0 n=k
+∞ +∞ n
λ −λ n 1 k N − 1 n−k
X X  
= P (X = n)P[X=n] (Xi = k) = e ( ) ( )
n! k N N
n=k n=k
+∞ +∞
e−λ X
λn
n! N − 1 n−k e−λ X λn N − 1 n−k
= ( ) = ( )
Nk n! k!(n − k)! N k!N k (n − k)! N
n=k n=k
+∞ +∞
k −λ X
λ e λn−k
N − 1 n−k λ e k −λ X
λ N −1 n
n
= ( ) = ( )
k!N k (n − k)! N k!N k n=0
(n)! N
n=k
k −λ
λ e N −1 (λ/N )k − λ
= k
eλ N = e N
k!N k!
Ainsi la variable Xi suit une loi de Poisson de paramètre λ/N .
2. En procédant comme précédemment, on montre que la loi de X1 + X2 sachant [X = n] est une loi
B(n, 2/N ), et avec le même calcul que précédemment, on montre alors que X1 + X2 suit une loi
P(2λ/N ).

Mise en garde.
On ne peut pas utiliser la stabilité de la loi de Poisson car on ne sait pas si les variables X1 et
X2 sont indépendantes ou pas.

3. On a la formule :
1
Cov(X1 , X2 ) = (V (X1 + X2 ) − V (X1 ) − V (X2 )
2
d’où avec les calculs précédents, et en se souvenant de la variance d’une loi de Poisson :

1 2N
 
N N
Cov(X1 , X2 ) = − − =0
2 λ λ λ

10
ECS2 Lycée Louis Pergaud

4. On a X = X1 + · · · + Xn . D’où par linéarité à droite de la covariance :


n n
X X λ
Cov(X1 , X) = Cov(X1 , Xi ) = V (X1 ) + Cov(X1 , Xi ) = V (X1 ) = .
i=1 i=2
N
| {z }
=0

Ainsi on obtient que :


Cov(X1 , X) λ/N 1
ρX1 ,X = =p =√ .
σ(X1 )σ(X) (λ/N )λ N

5. La covariance entre X1 et X2 est nulle, mais cela n’assure pas que ces variables sont indépendantes,
et ne nous dispense donc pas du calcul. On a pour tout (i, j) ∈ N2 , en utilisant que ([X = n], n ∈ N)
est un SCE :
+∞
X
P (X1 = i, X2 = j) = P (X = n)P[X=n] (X1 = i, X2 = j)
n=0
+∞ n−i−j
λn −λ n n − i 1 1 N −2
X    
= e
n=i+j
n! i j Ni Nj N

car il faut choisir i personnes parmi n prenant la caisse 1, et donc j parmi n − i prenant la caisse 2.
Et alors les n − i − j autres personnes choisissent une caisse parmi les N − 2 autres. D’où :
+∞ n−i−j
e−λ X λn (n − i)! 2

n!
P (X1 = i, X2 = j) = i+j 1−
N n=i+j
n! i!(n − i)! j!(n − i − j)! N
+∞ n−i−j
λi+j e−λ X λn−i−j 2

= 1−
i!j!N i+j n=i+j (n − i − j)! N
+∞ n
λi+j e−λ X λn 2

= 1−
i!j!N i+j n=0 n! N
λi+j e−λ λ−2 λ (λ/N )i − λ (λ/N )j − λ
= e N = e N e N = P (X = i)P (Y = j)
i!j!N i+j i! j!
Ainsi les variables X1 et X2 sont bien indépendantes.

Exercice 7.19 (FFFF - Oral HEC 2014)


On lance indéfiniment un dé équilibré et, pour tout n ∈ N∗ , on note Xn le numéro sorti au n-ième tirage.
Les variables aléatoires Xn , définies sur un espace probabilisé (Ω, A , P ), sont donc supposées indépendantes et
de même loi uniforme sur J1, 6K.
Pour tout i ∈ J1, 6K, on note Ti le temps d’attente de la sortie du numéro i.

1. (a) Donner la loi de T1 ainsi que son espérance et sa variance.


(b) Trouver l’espérance des variables aléatoires Inf(T1 , T2 ) et Sup(T1 , T2 ).
2. Justifier l’existence de la covariance de T1 et de T2 , que l’on notera Cov(T1 , T2 ).
3. (a) Établir, pour tout i ∈ J2, 6K, la relation : E(T1 | [X1 = i]) = 7.
(b) Montrer que pour tout i ∈ J3, 6K, on a : E(T1 T2 | [X1 = i]) = E((1 + T1 )(1 + T2 )).
(c) Calculer E(T1 T2 ).
(d) En déduire Cov(T1 , T2 ) ainsi que le coefficient de corrélation linéaire de T1 et T2 .
4. (a) Trouver un réel α tel que les variables T1 et T2 + αT1 soient non corrélées.
(b) Calculer l’espérance conditionnelle E(T2 + αT1 | [T1 = 1]).
(c) Les variables aléatoires T1 et T2 + αT1 sont-elles indépendantes ?

11
ECS2 Lycée Louis Pergaud

1 1 1−p
1. (a) T1 suit une loi géométrique de paramètre p = . On a E(T1 ) = = 6 et V (T1 ) = =
6 p p2
36 − 6 = 30.
(b) I = Inf (T1 , T2 ) représente le temps d’attente de la sortie du numéro 1 ou du numéro 2. Cette
2 1
variable suit donc aussi une loi géométrique de paramètre = . On a donc E(I) = 3.
6 3
On a d’autre part, en notant S = Sup(T1 , T2 ), l’égalité :

T1 + T2 = I + S ⇒ S = T1 + T2 − I.

Comme toutes les variables I, T1 , T2 admettent une espérance, il en est de même de S, et on a


:
E(S) = −E(I) + E(T1 ) + E(T2 ) = 6 + 6 − 3 = 9.

2. T1 et T2 admettent une variance puisqu’elles suivent des lois géométriques, donc Cov(T1 , T2 ) existe
bien.
3. (a) Soit i ∈ J2, 6K. Si [X1 = i] est réalisé, on a donc obtenu un numéro différent de 1 au premier
tirage. Le temps d’attente pour obtenir le numéro 1 sachant cet évènement réalisé est donc
1 + T1 , c’est à dire le temps d’attente pour obtenir le numéro 1 auquel il faut ajouté le premier
lancé qui n’a pas donné le numéro 1. Ainsi la loi de T1 sachant [X1 = i] est égale à la loi de
T1 + 1. Donc E(T1 | [X1 = i]) existe et vaut E(T1 + 1) = E(T1 ) + 1 = 7.
(b) Soit i ∈ J2, 6K. Par le même raisonnement, on a que la loi de T1 sachant [X1 = i] est la
même que celle de T1 + 1, et de même pour T2 . Les espérances en jeux existant bien puisque
l’espérance de T1 T2 existe, on a :

E(T1 T2 | [X1 = i]) = E(1 + T1 )(1 + T2 ))

(c) Le système ([X1 = i], i = 1, . . . , 6) est complet, et l’espérance E(T1 T2 ) existe. Par la formule
de l’espérance totale, on a :
6
X
E(T1 T2 ) = E(T1 T2 | [X1 = i])P (X1 = i)
i=1
6
1 1 1X
= E(T1 T2 | [X1 = 1]) + E(T1 T2 | [X1 = 2]) + E(T1 T2 | [X1 = i])
6 6 6 i=3
6
1 1 1X
= E(T2 | [X1 = 1]) + E(T1 | [X1 = 2]) + E((1 + T1 )(1 + T2 ))
6 6 6 i=3
1 1
= (7 + 7 + 4E((1 + T1 )(1 + T2 ))) = (14 + 4(1 + E(T1 ) + E(T2 ) + 4E(T1 T2 ))
6 6
1 2
= (18 + 8 × 6 + E(T1 T2 )) = 11 + E(T1 T2 )
6 3
On obtient donc que E(T1 T2 ) = 33.
(d) On obtient donc que Cov(T1 , T2 ) = E(T1 T2 ) − E(T1 )E(T2 ) = 33 − 36 = −3 et que :

Cov(T1 , T2 ) −3 1
ρT1 ,T2 = = =− .
σ(T1 )σ(T2 ) 30 10

4. (a) Soit α ∈ R. On a par linéarité à droite de la covariance :

Cov(T1 , T2 + αT1 ) = Cov(T1 , T2 ) + αV (T1 ) = −3 + 30α.


1
Ainsi Cov(T1 , T2 + αT1 ) = 0 si et seulement si α = .
10

12
ECS2 Lycée Louis Pergaud

(b) On a par linéarité de l’espérance, en remarquant que [T1 = 1] = [X1 = 1], que :

E(T2 + αT1 | [T1 = 1]) = E(T2 + α | [T1 = 1]) = E(T2 | [T1 = 1]) + α
1 71
= E(T2 | [X1 = 1]) + α = 7 + =
10 10

(c) Ces deux variables sont non corrélées, mais cela n’implique pas qu’elles soient indépendantes.
Pour montrer qu’elles ne le sont pas, on calcule E(T2 + αT1 ). On a par linéarité de l’espérance
:
6 66
E(T2 + αT1 ) = E(T2 ) + αE(T1 ) = 6 + =
10 10
Puisque E(T2 + αT1 ) 6= E(T2 + αT1 | [T1 = 1]), on peut en déduire que T1 et T2 + αT1 ne sont
pas indépendantes.

13

Vous aimerez peut-être aussi