Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Chap 7

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 9

Chapitre 7

Convergence de variables
aléatoires

On se donne dans tout le chapitre un espace probabilisé (Ω, A, P).

8.1 Les différentes notions de convergence


On se donne X, (Xn )n>0 v.a. à valeurs dans Rd .
Définition 8.1.1. (C’est une réécriture de la définition 4.1.2.)
p.s.
On dit que Xn converge presque sûrement vers X et on note Xn −→ X si
n→+∞

P({ω ∈ Ω : X(ω) = lim Xn (ω)}) = 1 .


n→+∞

Lp
Définition 8.1.2. Soit p > 0, on dit que Xn converge dans Lp vers X et on note Xn −→
n→+∞
X si E(kX − Xn kp ) −→ 0 (ici, k.k est la norme usuelle sur Rd ).
n→+∞

proba.
Définition 8.1.3. On dit que Xn converge en probabilité vers X et on note Xn −→ X
n→+∞
si ∀ε > 0, P(kX − Xn k > ε) −→ 0.
n→+∞

loi
Définition 8.1.4. On dit que Xn converge en loi vers X et on note Xn −→ X si ∀φ ∈
n→+∞
Cb+ (Rd ), E(φ(Xn )) −→ E(φ(X)).
n→+∞

Nous admettons la proposition suivante sans démonstration.


Proposition 8.1.5. La suite (Xn ) converge en loi vers X si et seulement si, pour toute φ
mesurable, bornée, E(φ(Xn )) −→ E(φ(X)).
n→+∞

Définition 8.1.6. Soit (µn ) une suite de mesures de probabilité sur Rd . On dit que (µn )
étr.
converge étroitement vers µ et on note µn −→ µ si ∀φ ∈ Cb+ (Rd ),
n→+∞
Z Z
φ(x)µn (dx) −→ φ(x)µ(dx) .
Rd n→+∞ Rd

Remarque 8.1.7. Pour une suite de v.a. à valeurs dans Rd ,


   
loi étr.
Xn −→ X ⇔ PXn −→ PX
n→+∞ n→+∞

Théorème 8.1.8. Pour des variables dans R, nous avons l’équivalence


 
loi loi
Xn −→ X ⇔ [FXn (t) −→ FX (t) en tout point t où FX est continue
n→+∞ n→+∞

(c’est à dire en tout point t tel que P(X = t) = 0).] .

71
72 CHAPITRE 7. CONVERGENCE DE VARIABLES ALÉATOIRES

Corollaire 8.1.9. Pour une suite de v.a. à valeurs dans Rd ,


   
loi étr.
Xn −→ X ⇔ PXn −→ PX
n→+∞ n→+∞

   
p.s. proba.
Théorème 8.1.10. i) Xn −→ X ⇒ Xn −→ X
n→+∞ n→+∞
   
p
L proba.
ii) ∀p > 1, Xn −→ X ⇒ Xn −→ X
n→+∞ n→+∞
   
proba. p.s.
iii) Xn −→ X ⇒ ∃ sous-suite (Xg(n) ) : Xg(n) −→ X
n→+∞ n→+∞
   
proba. loi
iv) Xn −→ X ⇒ Xn −→ X
n→+∞ n→+∞

Rappel : une sous-suite d’une suite (un )n>0 est donnée par une application strictement
croissante g : N → N, la sous-suite s’écrit alors (ug(n) )n>0 .
Diagramme :

convergence Lp ⇒ convergence en probabilité ⇐ convergence p.s.



convergence en loi.

Toutes les autres implications sont fausses.


Démonstration. (i) On se contente de faire la démonstration pour des variables à valeurs
réelles. Soit ε > 0.

P(|Xn − X| > ε) = E(1]ε;+∞[ (|Xn − X|)) .

— Pour p.t. ω, |Xn (ω) − X(ω)| −→ 0 et donc 1]ε;+∞[ (|Xn (ω) − X(ω)|) −→ 0.
n→+∞ n→+∞
— Pour tout n (et tout ω), 1]ε;+∞[ (|Xn (ω) − X(ω)|) 6 1 qui est d’espérance finie.
Donc par théorème de convergence dominée, E(1]ε;+∞[ (Xn − X)) −→ 0.
n→+∞
(iv) On se contente de faire la démonstration pour des variables à valeurs réelles. Soit t
un point où FX est continue. Soit ε > 0 quelconque. Par la propriété d’additivité et
la propriété de croissance :

P(Xn 6 t) = P(Xn 6 t, |X − Xn | 6 ε) + P(Xn 6 t, |X − Xn | > ε)


6 P(X 6 t + ε) + P(|X − Xn | > ε) .

Comme P(|X − Xn | > ε) −→ 0 alors lim supn→+∞ P(Xn 6 t) 6 P(X 6 t + ε) =


n→+∞
FX (t + ε). De même :

P(X 6 t − ε) = P(X 6 t − ε, |X − Xn | 6 ε) + P(X 6 t − ε, |X − Xn | > ε)


6 P(Xn 6 t) + P(|X − Xn | > ε) .

Donc lim inf n→+∞ P(Xn 6 t) > P(X 6 t − ε) = FX (t − ε). Tous ces calculs sont vrais
∀ε et FX est continue en t donc limn→+∞ FXn (t) = FX (t).

8.2 Loi des grands nombres


Notation 8.2.1. Soient X1 , X2 , . . . des variables indépendantes et de même loi. On dira
que ces variables sont indépendantes et identiquement distribuées et on utilisera la notation
 i.i.d. .

Théorème 8.2.2. Soient X1 , X2 , . . . des v.a.r. i.i.d. Si E(Xn2 ) < ∞, on a


X1 + · · · + Xn L2
−→ E(X1 ) .
n n→+∞
8.2. LOI DES GRANDS NOMBRES 73

Le théorème 8.1.10 nous fournit alors le corollaire suivant.

Corollaire 8.2.3. Loi faible des grands nombres


Soient X1 , X2 , . . . des v.a.r. i.i.d. Si E(Xn2 ) < ∞, on a

X1 + · · · + Xn proba.
−→ E(X1 ) .
n n→+∞

Démonstration du théorème 8.2.2.


 2 !  2 !
X1 + · · · + Xn (X1 − E(X1 )) + · · · + (Xn − E(Xn ))
E − E(X1 ) = E
n n
n
X 1
= E((Xk − E(Xk ))2 )
n2
k=1
Var(X1 )
= −→ 0
n n→+∞

Théorème 8.2.4. Loi forte des grands nombres


Soient X1 , X2 , . . . des v.a.r. i.i.d. Si E(|X1 |) < ∞ (en d’autres termes. Si X1 est intégrable)
alors
X1 + · · · + Xn p.s.
−→ E(X1 ) .
n n→+∞

Démonstration. Nous ne ferons la démonstration que dans le cas E(X14 ) < ∞. Nous voulons
montrer que
(X1 − E(X1 )) + · · · + (Xn − E(Xn )) p.s.
−→ 0 .
n n→+∞

Posons pour tout i, Xi0 = Xi − E(Xi ). Calculons


4 !
X10 + · · · + Xn0

1 X
E = E(Xi01 Xi02 Xi03 Xi04 ) .
n n4
i1 ,i2 ,i3 ,i4 ∈{1,...,n}

Remarquons que dans cette dernière somme, certains termes sont nuls. Par exemple, en
utilisant les propriétés des variables indépendantes (cf. cor. 7.1.6)

E(X10 X20 X20 X20 ) = E(X10 )E((X20 )3 ) = 0


E(X10 X20 X30 X30 ) = E(X10 )E(X20 )E((X30 )2 ) = 0 .

Après regroupement des termes identiques, nous obtenons

4 !
X10 + · · · + Xn0

1
E = (nE((X10 )4 + 6n(n − 1)E((X1 )2 (X2 )2 )
n n4
7
6 .
n2
 4 
P X10 +···+Xn
0
Et donc n>1 E n < ∞. Par Fubini-Tonelli (cf. ex. 5.1.10)
 
X  X 0 + · · · + X 0 4  0 0
4 !
1 n
X X1 + · · · + Xn
E = E <∞.
n n
n>1 n>1

4
0
X10 +···+Xn
P 
Donc la variable n>1 n est finie p.s. (cf. rem. 6.2.2, (v)). Donc le terme général
de la série converge vers 0, p.s.
74 CHAPITRE 7. CONVERGENCE DE VARIABLES ALÉATOIRES

Exemple 8.2.5. Soient U1 , U2 , . . . i.i.d. de loi U([0, 1]). Soient 0 6 a < b 6 1. Soit pour tout
i, Xi = 1[a,b] (Ui ). Les variables X1 , X2 , . . . sont i.i.d. de loi B(b−a) et vérifient E(|Xi |) < ∞
puiqu’elles sont bornées. Par la loi des grands nombres
X1 + · · · + Xn p.s.
−→ E(X1 ) = P(a 6 U1 6 b) = b − a .
n n→+∞

Ce qui veut dire que la proportion de points tombant dans [a, b] converge vers b − a. Illustra-
tion, la densité empirique de U([0, 1]) :
http://www-sop.inria.fr/mefisto/java/tutorial1/node7.html
#SECTION00031010000000000000
De même,
1X1 61/2 + · · · + 1Xn 61/2 p.s. 1
−→ .
n n→+∞ 2

Illustration, le jeu de pile ou face :


http://www-sop.inria.fr/mefisto/java/tutorial1/node8.html
#SECTION00031020000000000000
Une autre illustration : l’aiguille de Buffon
http://www-sop.inria.fr/mefisto/java/tutorial1/node14.html
#SECTION00033110000000000000

8.3 Théorème central-limite


Définition 8.3.1. Soit µ mesure de probabilité sur Rd , on appelle fonction caractéristique
de µ la fonction suivante
Z
x ∈ Rd 7→ µ̂(x) = eitx µ(dt) ∈ C .
Rd

Si X est une v.a. de loi µ alors ΦX = µ̂.


Théorème 8.3.2. (dû à Paul Lévy) Soit (µn ) une suite de mesures de probabilité sur Rd ,
   
étr.
µn −→ µ ⇔ ∀z ∈ Rd , µ̂n (z) −→ µ̂(z) .
n→+∞ n→+∞

Ce qui s’énonce aussi


   
loi d
Xn −→ X ⇔ ∀z ∈ R , ΦXn (z) −→ ΦX (z)
n→+∞ n→+∞

Théorème 8.3.3. Théorème central-limite (aussi noté TCL)


Soit (Xn ) une suite de v.a.r. i.i.d. avec E(X1 ) = m et Var(X1 ) = σ 2 (m, σ 2 < ∞). Alors
X1 + · · · + Xn − nm loi
√ −→ Z de loi N (0, 1) ,
σ n n→+∞

(où σ > 0 est la racine carrée de la variance).


Il existe des résultats raffinés sur la  vitesse de cette convergence en loi. Voir, par
exemple, le théorème de Berry-Esseen dans [Dur96].
Remarque 8.3.4. Sous les hypothèses du théorème précédent, prenons a < b, f (x) =
1[a,b] (x). Par la proposition 8.1.5,
  
X1 + · · · + Xn − nm
E f √ −→ E(f (Z)) ,
σ n n→+∞

c’est à dire 2
b
e−x /2
 
X1 + · · · + Xn − nm
Z
P a6 √ 6b −→ √ dx .
σ n n→+∞ a 2π
C’est cette propriété qui sera le plus souvent utilisée dans les exercices.
8.3. THÉORÈME CENTRAL-LIMITE 75

Démonstration du théorème 8.3.3. Posons ∀n, Yn = Xn − m. Soient


X1 + · · · + Xn − nm S0
Sn0 = Y1 + · · · + Yn , Zn = √ = √n .
σ n σ n
Nous avons
itSn0
  
ΦZn (t) = E exp √
σ n
  
it
= E exp √ (Y1 + · · · + Yn )
σ n
  
Y it
(par indépendance des Yj ) = E exp √ Yj
σ n
16j6n
 n
t
(car les Yj sont identiquement distribués) = ΦY1 √ .
σ n
Regardons la fonction ΦY1 (u) = E(eiuY1 ) pour u ∈ R. Pour tout u, E(|eiuY1 |) = 1 < ∞.
Pour tout ω, u 7→ eiuY1 (ω) est dérivable et de dérivée u 7→ iY1 eiuY1 (ω) . Pour tous u, ω,
|Y1 eiuY1 (ω) | 6 |Y1 (ω)| qui est intégrable (et qui ne dépend pas de u). Donc, par théorème de
dérivation (cf. cor. 4.3.6)
Φ0Y1 (u) = E(iY1 eiY1 u ) .
De même, Φ00Y1 (u) = E(−Y12 eiY1 u ). Donc Φ0Y1 (0) = E(iY1 ) = iE(Y1 ) = 0, Φ00Y1 (0) = −E(Y12 ) =
−σ 2 . Supposons que ΦY1 admette un développement limité en 0 (ce n’est pas toujours le
cas). Ce développement est alors :
u2 00
ΦY1 (u) = ΦY1 (0) + uΦ0Y1 (0) + Φ (0) + o(u2 )
2 Y1
u2 σ 2
= 1− + o(u2 ) .
2
Donc
 n
t2

1
ΦZn (t) = 1− 2 +o
σ n n
t2
   
1
= exp n log 1 − 2 + o
σ n n
 2 
t
= exp − 2 + o(1)
σ
2
/σ 2
−→ e−t
n→+∞

par continuité de l’exponentielle.


Exemple 8.3.5. On s’intéresse au nombre de gens qui achètent de la lessive Ariel en France.
On ne peut pas interroger toute la population et on se contente donc d’un échantillon de
personnes. Introduisons la variable
(
1 si la i-ème personne interrogée achète Ariel
Xi =
0 si la i-ème personne interrogée n’achète pas Ariel.
Les variables Xi sont supposées i.i.d. avec P(Xi = 1) = p (ce sont nos hypothèses de
modélisation). La quantité p est celle que nous cherchons à déterminer. Remarquons que
E(X1 ) = p × 1 + (1 − p) × 0 = p. Par la loi (forte) des grands nombres
X1 + · · · + Xn p.s.
−→ E(X1 ) = p.
n n→+∞

Quelle taille n d’échantillon sélectionner pour que X1 +···+Xn


n
soit proche de p ? Supposons
que l’on veuille n tel que la probabilité de se tromper de plus de 0, 01 dans notre estimée de
p soit plus petite que 0, 1, c’est à dire
 
X1 + · · · + Xn
P − p > 0, 01 6 0, 1 . (8.3.1)
n
76 CHAPITRE 7. CONVERGENCE DE VARIABLES ALÉATOIRES

Notons σ 2 = Var(X1 ). Nous avons


   √ 
X1 + · · · + Xn (X1 − p) + · · · + (Xn − p)
> n × 0, 01

P − p > 0, 01 = P √
n σ n σ
 √ 
n × 0, 01
(par TCL) ≈ P Z > avec Z ∼ N (0, 1)
σ
Z +∞ 2
e−x /2
= 2 √ √ dx
n×0,01
σ

Z √n×0,01 2
!
σ e−x /2
= 2 1− √ dx . (8.3.2)
−∞ 2π

Nous voyons sur une table (cf. annexe A) qu’il suffit de prendre n tel que n×0, 01/σ = 1.65.
Calculons
Var(X1 ) = E(X12 ) − E(X1 )2
= p × 12 + (1 − p) × 02 − p2
= p − p2 = p(1 − p) .
Nous avons alors que
p !2
1, 65 × p(1 − p)
n=
0, 01
réalise (8.3.1). Mais justement, nous ne connaissons pas p. Nous étudions la fonction
p ∈ [0, 1] 7→ p(1 − p) .

1/4

0 1/2 1

Figure 8.1 –

C’est une parabole qui atteint son max. en 1/2. Donc, ∀p ∈ [0, 1],
p !2  √ 2
1, 65 × p(1 − p) 1, 65 × 0, 5 × 0, 5
6 .
0, 01 0, 01
Remarquons, au vu de (8.3.2), que si (8.3.1) est réalisée pour un certain n1 alors elle est
 √ 2
réalisée pour tout n2 > n1 ; donc il suffit de prendre n = 1,65×0,01
0,5×0,5
.
Exemple 8.3.6. Théorème de Moivre
Soient X1 , X2 , . . . i.i.d. ∼ B(1/2). Soit Sn = X1 + · · · + Xn . Calculons
ΦSn (u) = E(eiu(X1 +···+Xn ) )
(par indépendance des Xj ) = E(eiuX1 )n
 n
1 iu
= (1 + e )
2
n  n−k  k
X
k 1 1
= Cn eiku
2 2
k=0
8.4. EXERCICES 77

qui est la fonction caractéristique de B n, 12 . Donc Sn ∼ B(n, 1/2).




Nous avons E(X1 ) = 1/2, Var(X1 ) = 1/4 (cf. ex. précédent). Donc le TCL nous dit que
pour a 6 b
  Z b −x2 /2
Sn − n/2 e
P a6 √ 6b −→ √ dx .
(1/2) n n→+∞ a 2π
(Ce résultat s’appelle le théorème de Moivre.)
Illustration : la planche de Galton,
http://www-sop.inria.fr/mefisto/java/tutorial1/node11.html
#SECTION00032010000000000000
Si on règle le paramètre n à 8, chaque bille arrive en bas en une abscisse aléatoire de même
loi que S8 − 8 × (1/2). Donc l’histogramme représente la densité empirique de cette loi, qui
se rapproche du dessin d’une gaussienne.

8.4 Exercices
8.4.1 Énoncés
1) Soient U1 , U2 , . . . indépendantes et identiquement distribuées de loi E(1) (loi exponentielle
de paramètre 1).
(a) Calculer E(U1 ), Var(U1 ).
(b) Estimer P(U1 + · · · + Un > n(1 + α)) pour n = 100, α = 1/10.
2) Soit f : R → R telle que ∀x, y, |f (x)−f (y)| 6 C inf(1, |x−y|) pour une certaine constante
C.
p.s.
(a) Si Xn −→ X (rappel : pour p.t. ω, Xn (ω) −→ X(ω)), montrer que E(f (X)) −
n→+∞ n→+∞
E(f (Xn )) −→ 0.
n→+∞
p.s.
(b) Soit ε > 0, toujours sous l’hypothèse Xn −→ X, montrer que P(|f (Xn )−f (X)| >
n→+∞
ε) −→ 0.
n→+∞
3) On achète un stock d’ampoules pour un lampadaire. Les ampoules ont une durée de vie
de loi E(λ). La première ampoule dure un temps X1 , on la remplace immédiatement et
la deuxième qui dure un temps X2 . . .Soit T > 0. On admet que le nombre d’ampoules
N grillées pendant le temps T est tel que N est de loi P(λT ). On suppose que λT ∈ N.
(a) Calculer m = E(N ).
(b) Soit p ∈ N∗ . Montrer que P(N > m + p) = P(X1 + · · · + Xm+p 6 T ).
(c) On suppose maintenant que λ = 1, T = 20, p = 5. Donner une valeur numérique
approchée de P(N > m + p) à l’aide de la table jointe.
(d) Avec les mêmes valeurs numériques que ci-dessus, combien d’ampoules faut-il ache-
ter au minimum pour que P(se retrouver à court d’ampoules avant le temps T ) <
0.05 ?
4) On rappelle que la somme de deux variables gaussiennes indépendantes, respectivement
de lois N (m1 , σ12 ) et N (m2 , σ22 ) est une variable gaussienne de loi N (m1 + m2 , σ12 + σ22 ).
Soient X1 , X2 , X3 , . . . des variables indépendantes et identiquement distribuées (i.i.d.)
de loi N (m, σ 2 ). On suppose que l’on connaı̂t σ mais pas m, que l’on veut estimer par
Sn = n1 (X1 + · · · + Xn ).

(a) Montrer que n Snσ−m est (exactement) de loi N (0, 1).


(b) On admet que


  r  2
σ σ 21 δ
∀δ > 0, P m − δ √ 6 Sn 6 m + δ √ >1− exp − .
n n πδ 2

(c) En déduire que


r
nε2
 
2 σ
∀ε > 0, P(m − ε 6 Sn 6 m + ε) > 1 − exp − 2 .
nπ ε 2σ
78 CHAPITRE 7. CONVERGENCE DE VARIABLES ALÉATOIRES

(d) On suppose que ε = 0.01, σ = 1, n = 10000, minorer P(|Sn − m| 6 ε) par une valeur
numérique.

5) Soient des variables aléatoires V0 , V1 , V2 , · · · > 0 indépendantes et identiquement dis-


tribuées vérifiant E(Vn2 ) < ∞, E(1/Vn2 ) < ∞ (ce qui implique E(Vn ) < ∞, E(1/Vn ) < ∞).
Soit a > 1. Soit p une variable ∈ [0, 1]. On définit des variables Wn par récurrence en
prenant : W0 = 1, Wn+1 = (ap + (1 − p)Vn ) × Wn .
Pn−1
(a) Montrer que log(Wn ) = log(W0 ) + k=0 log(ap + (1 − p)Vn ) pour tout p ∈ [0; 1].
log(Wn ) p.s.
(b) Montrer que n −→ E(log(ap + (1 − p)V1 )) pour tout p ∈ [0; 1[ (on admet
n→+∞
que le résultat s’étend à [0; 1]). Posons c(p) = E(log(ap + (1 − p)V1 )).
(c) Montrer que ∀ω, ∀p ∈ [0, 1],
 
a − V1 (ω) 6 (a + V1 (ω)) 1 + 1


ap + (1 − p)V1 (ω) .
a V1 (ω)

 
a−V1
(d) Montrer que c0 (p) = E ap+(1−p)V1 pour tout p ∈]0; 1[ (on admettra que la formule
est vraie sur [0; 1]).
 
(a−V1 )2
(e) On admet que c00 (p) = E − (ap+(1−p)V 1)
2 . On suppose que E(a/V1 ) > 1, E(V1 /a) >
1. Étudier la fonction c et montrer qu’elle atteint son maximum dans ]0; 1[.
(f) On suppose que P(V = 1) = P(V = 4) = 1/2. Calculer le p qui maximise c dans le
cas où a = 2.

6) Un assureur assure n automobilistes (numéroté de 1 à n) contre les accidents. Les assurés


versent une prime le 1er janvier. Au cours de l’année, l’assureur devra verser la somme
Xi à l’assuré numéro i. Les Xi sont supposées être des variables aléatoires indépendantes
et identiquement distribuées. La prime versée par chaque assuré est E(X1 ) + m (m ∈ R).
On suppose que Var(X1 ) = 1.

(a) Estimer la probabilité

P(X1 + · · · + Xn > n(E(X1 ) + m))

pour n = 100 et m = 0.1 (c’est la probabilité que l’assureur fasse faillite).


(b) On suppose toujours que m = 0.1, trouver un entier n0 tel que si n > n0 , P(X1 +
· · · + Xn > n(E(X1 ) + m)) 6 0.05.

7) Pour sa migration annuelle, une grenouille part d’une mare située sur un plan au point
de coordonnées (−25, 0) dans le repère orthonormé xOy. Elle est repérée par sa position
Zn au temps n. On suppose que :

au temps 0, sa position est Z0 = (−25, 0)


et ∀n > 0, Zn+1 = Zn + (1, 0) + Un ,
√ √
où les variables Un sont i.i.d. avec P(Un = (0, 1/ 2)) = 1/2, P(Un = (0, −1/ 2)) = 1/2.
Ainsi à chaque étape de sa progression,
√ la grenouille avance de +1 dans la direction Ox et
se déporte en même temps de ±1/ 2 dans la direction perpendiculaire Oy. Sur l’axe des
ordonnées se trouve cette année une autoroute neuve. On décide de creuser des tunnels
sous l’autoroute le long d’une certaine zone pour permettre le passage de cette grenouille.
La zone à tunnels se situe entre des points d’ordonnées a et b. Si la grenouille arrive dans
cette zone, elle passe dans un tunnel et sinon elle se fait écraser.
8.4. EXERCICES 79

y
1
0
1
0
1
0 autoroute
1
0
(0,b) 1 1
0
1
00
1
1
00
1
0
1
0
10
1
0
0
11
0
O1 01
0
1
x
(−25,0) 0
10
1 11111
0
1
0
10
1 00000zone de tunnels
01
00
(0,a) 10
1
1
0
1
0
Figure 8.2 –

(a) À quel instant passe-t-elle par l’autoroute ?


(b) Supposons que l’on construise une zone de tunnels entre les points d’ordonnées −5
et 5 (compris). Donner une approximation de la probabilité qu’a la grenouille de
passer par un tunnel. (Dans les calculs, on arrondira au deuxième chiffre après la
virgule pour simplifier.)
(c) On décide de construire une zone de tunnels entre des point d’ordonnées −x et +x
(x > 0). Donner une valeur approximative de x telle que la probabilité de survie de
la grenouille soit 0.9. (Dans les calculs, on arrondira au deuxième chiffre après la
virgule pour simplifier.)

Vous aimerez peut-être aussi