ECS2 TD7 Correction
ECS2 TD7 Correction
ECS2 TD7 Correction
TD7
Couples de variables aléatoires discrètes
X
Le réel a doit être positif. De plus on doit calculer la série double P (X = i, Y = j) qui doit converger
et dont la somme doit valoir 1. Pour cela, étant donné la présence de i + j dans le terme général, on
va procéder à une somme suivant les diagonales (comme tout est positif, inutile de mettre des valeurs
absolues) :
• Pour tout n ∈ N, on a :
X X a a a
P (X = i, Y = j) = = (n + 1) =
i+j=n i+j=n
(n + 1)! (n + 1)! n!
1
ECS2 Lycée Louis Pergaud
P (X = 0, Y = 0) = P (X = 0)P (Y = 0).
Y (ω) − 1
X(ω)
A(ω) = .
Y (ω) − 1 X(ω)
Ainsi la probabilité pour que A ne soit pas inversible est égale à P (X = Y − 1). Reste à calculer cette
probabilité. On utilise le système complet d’évènements ([Y = k])k≥1 et la formule des probabilités totales
:
+∞
X +∞
X
P (X = Y − 1) = P (X = Y − 1, Y = k) = P (X = k − 1, Y = k)
k=1 k=1
+∞
X
= P (X = k − 1)P (Y = k) car les variables sont indépendantes
k=1
+∞ +∞
X (λ(1 − p))k−1
X λk−1 −λ
= e (1 − p)k−1 p = pe−λ = pe−λ eλ(1−p) = pe−λp
(k − 1)! (k − 1)!
k=1 k=1
2
ECS2 Lycée Louis Pergaud
car X et Y sont indépendantes. De plus, par stabilité de la loi de Poisson, on a X + Y ,→ P(λ + µ). On
obtient donc :
n−k
λk −λ µ −µ k n−k
k! e (n−k)! e λk µn−k
n! n λ µ
P[X+Y =n] (X = k) = = =
(λ+µ)n −(λ+µ)
e k!(n − k)! (λ + µ)n k λ+µ λ+µ
n!
2
n−0
Notons que cette égalité est encore vraie pour k = 0 car P (I > 0) = 1 = . On obtient
n
alors que k ∈ J1, nK :
2 2
n−k+1 2n − 2k + 1
n−k
P (I = k) = P (I > k − 1) − P (I > k) = − = .
n n n2
3
ECS2 Lycée Louis Pergaud
2. I et S étant des variables aléatoires finies, elles admettent une espérance et une variance. Pour I,
on a :
n n n
! n
!
X X 2n − 2k + 1 2n + 1 X 2 X 2
E(I) = kP (I = k) = k = k − 2 k
n2 n2 n
k=1 k=1 k=1 k=1
2n + 1 n(n + 1) 2 n(n + 1)(2n + 1)
= − 2
n 2 2 n 6
3(n + 1)(2n + 1) − 2(n + 1)(2n + 1) (n + 1)(2n + 1)
= =
6n 6n
D’autre part, on a :
n n n
! n
!
X X 2n − 2k + 1 2n + 1 X 2 X
E(I ) =
2
k P (I = k) =
2
k 2
= k 2
− 2 k 3
n n2 n
k=1 k=1 k=1 k=1
2n + 1 n(n + 1)(2n + 1) 2 n2 (n + 1)2
= −
n2 6 n2 4
6n(n + 1)(2n + 1) − 18n (n + 1)2 n(n + 1) 6(4n2 + 4n + 1) − 18(n2 + n)
2 2
= =
2 36n 36n2
2
n(n + 1) 6n + 6n + 6
=
36n2
Par la formule de Huygens, on obtient donc :
n2 − 1 n2 − 1 n2 − 1
V (S + I) = V (X + Y ) = V (X) + V (Y ) = + = .
12 12 6
On obtient alors la covariance :
1 1 n2 − 1 (n2 − 1)(2n2 + 1)
Cov(S, I) = (V (S + I) − V (S) − V (I)) = −
2 2 6 18n2
n2 − 1 3n2 − 2n2 − 1 (n2 − 1)2
= × =
2 18n 2 36n2
On en déduit que :
Cov(I, S) Cov(I, S) n2 − 1
ρI,S = p = = 2 .
V (I)V (S) V (I) 2n + 1
4
ECS2 Lycée Louis Pergaud
1. On a X(Ω) = N et Y (Ω) = {1, 2}, donc Z(Ω) = N. Soit k ∈ N, on a deux cas possibles :
• k est impair, soit de la forme k = 2p + 1 avec p ∈ N : ([Y = 1], [Y = 2]) est un système complet
d’évènements. Par la formule des probabilités totales, on a :
P (Z = 2p + 1) = P (Y = 1, XY = 2p + 1) + P (Y = 2, XY = 2p + 1)
= P (Y = 1, X = 2p + 1) + P (Y = 2, 2X = 2p + 1)
= P (Y = 1)P (X = 2p + 1) + P (Y = 2)P (2X = 2p + 1) par indépendance
1 λ 2p+1
1 1 λ −λ k
= e−λ + × 0 = e
2 (2p + 1)! 2 2 k!
• k est pair, soit de la forme k = 2p avec p ∈ N : toujours avec le SCE ([Y = 1], [Y = 2]), on a :
2. On cherche la probabilité de ∪p∈N [Z = 2p]. Puisque ces évènements sont incompatibles, cette
probabilité est égale à :
+∞ +∞
e−λ X λ2p λp
X
P (Z = 2p) = +
p=0
2 p=0 (2p)! p!
X λp
La série converge et sa somme vaut eλ .
p!
p≥0
X λ2p
On étudie l’autre série : il s’agit de “la série exponentielle à laquelle on ne garde que
(2p)!
p≥0
les termes pairs”. En d’autres termes, il s’agit de la partie paire de l’exponentielle. En effet on se
souvient que toute fonction f de R dans R se décompose de manière unique en la somme d’une
f (x) + f (−x) f (x) − f (−x)
fonction paire p : x 7→ et d’une fonction impaire i : x 7→ (on peut le
2 2
faire par Analyse-Synthèse). On est donc amené à considérer :
+∞ k
ex + e−x 1X xk
x
= + (−1)k .
2 2 k! k!
k=0
xk xk
+ (−1)k 0 si k impair
Or on a k! k! = k . On obtient donc que :
2 x si k pair
k!
+∞
ex + e−x X λ2p
= .
2 p=0
(2p)!
X λ2p ex + e−x
Ainsi la série converge et sa somme vaut .
(2p)! 2
p≥0
5
ECS2 Lycée Louis Pergaud
3 e−2λ
Ainsi la probabilité que Z soit paire est de + .
4 4
avec ai 6= aj et bi 6= bj si i 6= j.
1. Que vaut α ? Déterminer les lois marginales de X et de Y .
(a2 − a1 )(2b1 − b2 − b3 )
2. Montrer que Cov(X, Y ) = .
25
3. Les variables aléatoires X et Y sont-elles indépendantes ?
Exercice 7.12 (F - )
Soit (X, Y ) un couple de variables aléatoires de Bernoulli.
1. Montrer que Cov(X, Y ) = P ([X = 1] ∩ [Y = 1]) − P ([X = 1])P ([Y = 1]).
2. Montrer que deux variables aléatoires de Bernoulli sont indépendantes si et seulement si elles sont non
corrélées.
a) Notons tout d’abord que XY uniquement les valeurs 0 et 1, et suit donc une loi de Bernoulli de
paramètre p = P (XY = 1) = P ([X = 1] ∩ [Y = 1]). Ainsi on a :
Par la formule de Huygens, on a donc (toutes les variables sont finies, donc elles admettent bien des
espérances et variances) :
b) On sait déjà que deux variables indépendantes sont non corrélées, c’est à dire que Cov(X, Y ) = 0. Mais
la réciproque est fausse en générale !!! On va montrer que c’est cependant vrai si les variables suivent
une loi de Bernoulli toutes les deux. Supposons donc que Cov(X, Y ) = 0. Avec le calcul précédent, on
obtient donc l’égalité :
P ([X = 1] ∩ [Y = 1]) = P (X = 1)P (Y = 1).
La famille ([X = 1], [Y = 1]) d’évènement est donc indépendante. Par le cours, on sait qu’il en est
alors de même de toute famille construite à partir de celle-ci en remplaçant l’un des évènement par son
évènement contraire. Ce qui donne donc que pour tout (i, j) ∈ {0, 1}2 :
D’où l’indépendance de X et Y .
6
ECS2 Lycée Louis Pergaud
(
λ(1 − p)k si k ≥ n
1. Notons pour tout (n, k) ∈ N2 , pn,k = . Notons pour commencer que λ ≥ 0
0 sinon
puisqu’une probabilité est nécessairement positive, et que les pn,k sont donc tous positif. On va
montrer que la famille (pn,k ) est sommable (ce qui est sous-entendu dans l’énoncé puisque ([X =
n] ∩ [Y = k]) est un SCE) et que sa somme vaut 1. Appliquons pour cela le théorème de Fubini :
X
• Pour tout k ≥ 0, pn,k converge car pn,k = 0 si n > k. Il y a donc un nombre fini de termes
n≥0
non nuls dans cette série, et sa somme vaut donc :
+∞
X k
X
pn,k = λ(1 − p)k = λ(k + 1)(1 − p)k .
n=0 n=0
X
• La série λ(k +1)(1−p)k est une série géométrique dérivée, avec 1−p ∈]−1, 1[. Elle converge
k≥0
donc également.
On peut donc conclure que la famille (pn,k ) est sommable, et sa somme vaut :
+∞ X
+∞ +∞ +∞
X X X λ
pn,k = λ (k + 1)(1 − p)k = λ k(1 − p)k−1 = .
n=0 k=0
(1 − (1 − p))2
k=0 k=1
Ainsi on a λ = p2 .
2. Calculons la loi marginale de X, à l’aide de la FPT et du SCE ([Y = k])k∈N . Pour tout n ∈ X(Ω) =
N, on a :
+∞
X +∞
X
P (X = n) = P (X = n, Y = k) = P (X = n, Y = k)
k=0 k=n
+∞
X 1
=λ (1 − p)k = λ(1 − p)n = (1 − p)n p.
1 − (1 − p)
k=n
7
ECS2 Lycée Louis Pergaud
P (Z = n) = P (X = n − 1) = (1 − p)n−1 p.
Donc Z suit une loi G (p). On en déduit en particulier que X = Z + 1 admet une espérance et une
variance et qu’on a :
1 1−p
E(X) = E(Z + 1) = E(Z) + 1 = +1 et V (X) = V (Z + 1) = V (Z) = .
p p2
P (X = n, Y − X = k) = P (X = n, Y = k + n) = p2 (1 − p)k+n ,
et d’autre part :
Ces deux quantités sont donc égales, de sorte que X et Y − X sont indépendantes. On en déduit
que :
0 = Cov(X, Y − X) = Cov(X, Y ) − Cov(X, X)
1−p
par linéarité à droite de la covariance. D’où Cov(X, Y ) = V (X) = 6= 0, et X et Y ne sont pas
p2
indépendantes.
8
ECS2 Lycée Louis Pergaud
1. X représente le nombre de succès dans une succession d’épreuves de Bernoulli identiques (réussir ou
non son premier lancer franc) et indépendantes (les joueurs lancent de façon indépendante les uns
des autres). Elle suit donc une loi binomiale B(n, p).
2. La probabilité qu’un joueur rate ses deux lancers est (1 − p)2 (par indépendance des deux lancers),
et donc la probabilité qu’il marque au moins un des deux lancers est 1 − (1 − p)2 . On en déduit que
Z ,→ B(n, 1 − (1 − p)2 ).
3. Y représente le nombre de joueurs ayant marqué uniquement leur second lancer franc. Comme pour
chaque joueur, ceci se produit avec probabilité p(1 − p), on en déduit que Y ,→ B(n, p(1 − p)).
4. Les variables X et Y ne sont pas indépendantes, puisque par exemple P (X = n)P (Y = n) 6= 0 alors
que :
P (X = n, Y = n) = 0
puisqu’on ne peut pas avoir à la fois n joueurs qui réussissent peur premier lancer franc, et n joueurs
qui réussissent uniquement leur second lancer franc.
On connait V (X + Y ) = V (Z) = n(1 − (1 − p)2 )(1 − p)2 . On peut obtenir la covariance par la
formule :
1
Cov(X, Y ) = (V (X + Y ) − V (X) − V (Y ))
2
n
= ((1 − (1 − p)2 )(1 − p)2 − p(1 − p) − p(1 − p)(1 − p(1 − p))
2
n(1 − p)
= (2p − p2 − 2p2 + p3 − p − p + p2 − p3 ) = −n(1 − p)p2
2
Remarques.
• On aurait pu commencer par calculer la covariance, constater qu’elle est non nulle, et en déduire
que X et Y ne sont pas indépendantes.
• On a une covariance négative. Cela signifie qu’en moyenne, quand X augmente, Y a tendance
à diminuer, et vice-versa. Cela semble conforme à l’intuition : plus le nombre de joueurs
marquant leur premier panier est important, plus le nombre joueurs manquant le premier et
réussissant le second est faible.
2. Déterminer l’espérance de X.
3. Pour tout (i, j) ∈ J1, 6K2 , déterminer la loi de Xi Xj . En déduire Cov(Xi , Xj ). Les variables aléatoires Xi
et Xj sont-elles indépendantes ?
9
ECS2 Lycée Louis Pergaud
4. Déterminer V (X).
1. La loi de Xi conditionnellement à [X = n] est une loi binomiale B(n, N1 ). En effet, chacune des
n personnes arrivant au cinéma choisit de façon indépendante et équiprobable l’un des N guichets.
1
Chaque personne a donc une probabilité de de choisir la caisse i.
N
On a Xi (Ω) = N. Les évènements [X = n] pour n ∈ N forment un SCE. Par la formule des
probabilités totales, on a donc pour tout k ∈ N :
+∞
X +∞
X
P (Xi = k) = P (Xi = k, X = n) = P (Xi = k, X = n)
n=0 n=k
+∞ +∞ n
λ −λ n 1 k N − 1 n−k
X X
= P (X = n)P[X=n] (Xi = k) = e ( ) ( )
n! k N N
n=k n=k
+∞ +∞
e−λ X
λn
n! N − 1 n−k e−λ X λn N − 1 n−k
= ( ) = ( )
Nk n! k!(n − k)! N k!N k (n − k)! N
n=k n=k
+∞ +∞
k −λ X
λ e λn−k
N − 1 n−k λ e k −λ X
λ N −1 n
n
= ( ) = ( )
k!N k (n − k)! N k!N k n=0
(n)! N
n=k
k −λ
λ e N −1 (λ/N )k − λ
= k
eλ N = e N
k!N k!
Ainsi la variable Xi suit une loi de Poisson de paramètre λ/N .
2. En procédant comme précédemment, on montre que la loi de X1 + X2 sachant [X = n] est une loi
B(n, 2/N ), et avec le même calcul que précédemment, on montre alors que X1 + X2 suit une loi
P(2λ/N ).
Mise en garde.
On ne peut pas utiliser la stabilité de la loi de Poisson car on ne sait pas si les variables X1 et
X2 sont indépendantes ou pas.
3. On a la formule :
1
Cov(X1 , X2 ) = (V (X1 + X2 ) − V (X1 ) − V (X2 )
2
d’où avec les calculs précédents, et en se souvenant de la variance d’une loi de Poisson :
1 2N
N N
Cov(X1 , X2 ) = − − =0
2 λ λ λ
10
ECS2 Lycée Louis Pergaud
5. La covariance entre X1 et X2 est nulle, mais cela n’assure pas que ces variables sont indépendantes,
et ne nous dispense donc pas du calcul. On a pour tout (i, j) ∈ N2 , en utilisant que ([X = n], n ∈ N)
est un SCE :
+∞
X
P (X1 = i, X2 = j) = P (X = n)P[X=n] (X1 = i, X2 = j)
n=0
+∞ n−i−j
λn −λ n n − i 1 1 N −2
X
= e
n=i+j
n! i j Ni Nj N
car il faut choisir i personnes parmi n prenant la caisse 1, et donc j parmi n − i prenant la caisse 2.
Et alors les n − i − j autres personnes choisissent une caisse parmi les N − 2 autres. D’où :
+∞ n−i−j
e−λ X λn (n − i)! 2
n!
P (X1 = i, X2 = j) = i+j 1−
N n=i+j
n! i!(n − i)! j!(n − i − j)! N
+∞ n−i−j
λi+j e−λ X λn−i−j 2
= 1−
i!j!N i+j n=i+j (n − i − j)! N
+∞ n
λi+j e−λ X λn 2
= 1−
i!j!N i+j n=0 n! N
λi+j e−λ λ−2 λ (λ/N )i − λ (λ/N )j − λ
= e N = e N e N = P (X = i)P (Y = j)
i!j!N i+j i! j!
Ainsi les variables X1 et X2 sont bien indépendantes.
11
ECS2 Lycée Louis Pergaud
1 1 1−p
1. (a) T1 suit une loi géométrique de paramètre p = . On a E(T1 ) = = 6 et V (T1 ) = =
6 p p2
36 − 6 = 30.
(b) I = Inf (T1 , T2 ) représente le temps d’attente de la sortie du numéro 1 ou du numéro 2. Cette
2 1
variable suit donc aussi une loi géométrique de paramètre = . On a donc E(I) = 3.
6 3
On a d’autre part, en notant S = Sup(T1 , T2 ), l’égalité :
T1 + T2 = I + S ⇒ S = T1 + T2 − I.
2. T1 et T2 admettent une variance puisqu’elles suivent des lois géométriques, donc Cov(T1 , T2 ) existe
bien.
3. (a) Soit i ∈ J2, 6K. Si [X1 = i] est réalisé, on a donc obtenu un numéro différent de 1 au premier
tirage. Le temps d’attente pour obtenir le numéro 1 sachant cet évènement réalisé est donc
1 + T1 , c’est à dire le temps d’attente pour obtenir le numéro 1 auquel il faut ajouté le premier
lancé qui n’a pas donné le numéro 1. Ainsi la loi de T1 sachant [X1 = i] est égale à la loi de
T1 + 1. Donc E(T1 | [X1 = i]) existe et vaut E(T1 + 1) = E(T1 ) + 1 = 7.
(b) Soit i ∈ J2, 6K. Par le même raisonnement, on a que la loi de T1 sachant [X1 = i] est la
même que celle de T1 + 1, et de même pour T2 . Les espérances en jeux existant bien puisque
l’espérance de T1 T2 existe, on a :
(c) Le système ([X1 = i], i = 1, . . . , 6) est complet, et l’espérance E(T1 T2 ) existe. Par la formule
de l’espérance totale, on a :
6
X
E(T1 T2 ) = E(T1 T2 | [X1 = i])P (X1 = i)
i=1
6
1 1 1X
= E(T1 T2 | [X1 = 1]) + E(T1 T2 | [X1 = 2]) + E(T1 T2 | [X1 = i])
6 6 6 i=3
6
1 1 1X
= E(T2 | [X1 = 1]) + E(T1 | [X1 = 2]) + E((1 + T1 )(1 + T2 ))
6 6 6 i=3
1 1
= (7 + 7 + 4E((1 + T1 )(1 + T2 ))) = (14 + 4(1 + E(T1 ) + E(T2 ) + 4E(T1 T2 ))
6 6
1 2
= (18 + 8 × 6 + E(T1 T2 )) = 11 + E(T1 T2 )
6 3
On obtient donc que E(T1 T2 ) = 33.
(d) On obtient donc que Cov(T1 , T2 ) = E(T1 T2 ) − E(T1 )E(T2 ) = 33 − 36 = −3 et que :
Cov(T1 , T2 ) −3 1
ρT1 ,T2 = = =− .
σ(T1 )σ(T2 ) 30 10
12
ECS2 Lycée Louis Pergaud
(b) On a par linéarité de l’espérance, en remarquant que [T1 = 1] = [X1 = 1], que :
E(T2 + αT1 | [T1 = 1]) = E(T2 + α | [T1 = 1]) = E(T2 | [T1 = 1]) + α
1 71
= E(T2 | [X1 = 1]) + α = 7 + =
10 10
(c) Ces deux variables sont non corrélées, mais cela n’implique pas qu’elles soient indépendantes.
Pour montrer qu’elles ne le sont pas, on calcule E(T2 + αT1 ). On a par linéarité de l’espérance
:
6 66
E(T2 + αT1 ) = E(T2 ) + αE(T1 ) = 6 + =
10 10
Puisque E(T2 + αT1 ) 6= E(T2 + αT1 | [T1 = 1]), on peut en déduire que T1 et T2 + αT1 ne sont
pas indépendantes.
13