01 Les Probabilites
01 Les Probabilites
01 Les Probabilites
EL AMDAOUI Mustapha
14 janvier 2018
Plan
I. Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.1. Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.2. Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.3. Événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
II. Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
II.1. Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
II.2. Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
II.3. Continuité monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
II.4. Événements négligeable, quasi certain . . . . . . . . . . . . . . . . . . . . . 8
II.5. Probabilité sur un univers au plus dénombrable . . . . . . . . . . . . . . . . . . 9
III. Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
III.1. Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 11
III.2. Formule des probabilité composées . . . . . . . . . . . . . . . . . . . . . . 12
III.3. Formule des Probabilités totales . . . . . . . . . . . . . . . . . . . . . . . 13
III.4. Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
III.5. Indépendance d’événements . . . . . . . . . . . . . . . . . . . . . . . . . 15
1
Éléments de cours: MP Les probabilités
I. Espace probabilisé
I.1. Univers
Définition:
L’ensemble des résultats possibles décrivant une expérience aléatoire est appelé univers. Il est généralement
noté Ω. Les éléments ω de Ω sont les issues observées de l’expérience aléatoire, on les appelle éventualités.
La réalisation de l’expérience aléatoire revient au choix d’une éventualité dans l’univers i.e. d’un élément
Ω à l’intérieur de l’ensemble Ω.
Exemple:
On lance une pièce pour obtenir Pile ou Face.
• Il est naturel de choisir Ω = {P, F } pour modéliser les issues de l’expérience.
• On lance la pièce n fois, on choisira Ω = {P, F }n .
∗
• On lance la pièce indéfiniment : on choisira Ω = {P, F }N .
Exemple:
On compte le nombre de jets d’un dé avant d’obtenir un premier 6, on choisira Ω = N∗ .
Exemple:
Une urne contient 1 boule blanche et 4 boules rouges. On tire successivement deux boules avec remise :
Remarque:
Le choix de l’univers Ω dépend de la modélisation choisie pour l’expérience aléatoire
• il ne doit pas être trop petit pour pouvoir étudier toutes les issues souhaitées ;
• il ne doit pas être inutilement grand en prenant en compte des phénomènes inutiles.
I.2. Tribu
Définition:
Soient Ω un ensemble et T une partie de P(Ω), c’est-à-dire un ensemble de parties de Ω.
On dit que T est une tribu ou une σ-algèbre de parties de Ω si :
1. Ω ∈ T
2. Si A ∈ T alors A ∈ T
[
3. Pour tout ensemble I au plus dénombrable, et toute famille (Ai )i∈I d’éléments de T, Ai ∈ T.
i∈I
Remarque:
La troisième assertion montre que T est stable par union au plus dénombrable
Exemple:
Tribu triviale : {∅, Ω} est une tribu de de parties de Ω.
Tribu pleine : P(Ω) est une tribu de parties de Ω.
Propriété:
Soient Ω un ensemble et T une tribu de partie de Ω.
1. ∅ ∈ T.
2. Si A et B sont deux événements de T, alors A ∪ B, A ∩ B et A \ B sont dans T.
\
3. Pour tout ensemble I au plus dénombrable, et toute famille (Ai )i∈I d’éléments de T, Ai ∈ T.
i∈I
Preuve: 1. Ω ∈ T , donc ∅ = Ω ∈ T
2. Soit A, B ∈ T . S
• En choisissant A0 = A, A1 = B et An = ∅ pour tout n > 2, alors A B ∈ T
• On aussi A ∩ B = A ∪ B ∈ T , donc A ∩ B ∈ T
• A\B =A∩B ∈T
\ [ \
3. Finalement Ai = Ai ∈ T , donc Ai ∈ T
i∈I i∈I i∈I
Remarque:
Une tribu est donc stable :
• par passage au complémentaire ;
• par réunion et intersection au plus dénombrable.
Définition:
Soient Ω un ensemble et T une tribu de partie de Ω.
Le couple (Ω, T) s’appelle un espace probabilisable.
Exemple:
(Ω, P (Ω)) est un espace probabilisable.
I.3. Événements
Définition:
Si (Ω, T ) est un espace probabilisable, les parties A de Ω éléments de la tribu T sont appelées événement
de l’univers Ω.
Définition:
Un événement A est dit réalisé s’il existe un ω ∈ Ω tel que ω ∈ A
Définition:
— L’événement ∅ est appelé événement impossible.
— L’événement Ω est appelé événement certain.
— Les événements de la forme {ω}, avec ω ∈ Ω, sont appelés événements élémentaires.
Définition:
Si A et B sont deux événements de l’espace probabilisable (Ω, T )
— A est appelé l’événement contraire de A ;
— A ∩ B est appelé l’événement conjonction de A et B ;
— A ∪ B est appelé l’événement disjonction de A et B.
Définition:
Soit A et B deux événements de l’espace probabilisable (Ω, T ).
— On dit que l’événement A implique B si A ⊂ B.
— On dit que les événements A et B sont incompatibles si A ∩ B = ∅.
Remarque:
Deux événements incompatibles ne peuvent pas se réaliser en même temps
Notation:
Soit (An )n∈N une suite d’événements de l’espace probabilisable (Ω, T ).
+∞
\
— L’événement An correspond à la réalisation de tous les An .
n=0
+∞
[
— L’événement An correspond à la réalisation d’au moins un An .
n=0
+∞
\
— L’événement An correspond à la réalisation de tous les An à partir du rangN .
n=N
+∞
\ +∞
[
— L’événement An correspond à la réalisation d’une infinité de An .
N =0 n=N
+∞
[ +∞ \
— L’événement An correspond à la réalisation de An à partir d’un certain rang.
N =0 n=N
Remarque:
Notons que les ensembles décrits dans l’exemple au dessus sont bien éléments de la tribu T .
Exemple:
On lance indéfiniment un dé équilibré. Pour tout n ∈ N∗ , on pose
Remarque:
Autrement-dit un SCE est une partition de Ω constituée d’événements et indexée par un ensemble au plus
dénombrable
Exemple:
Si A est un événement non trivial, alors A et A forment un SCE
II. Probabilité
Soit (Ω, T) un espace probabilisable
Définition:
On appelle probabilité toute application P de T dans R+ tel que
1. P (Ω) = 1,
2. Si (An )n∈N est une suite d’événements de T deux à deux incompatibles alors
+∞
! +∞
[ X
P An = P (An ) σ-additivité
n=0 n=0
Remarque:
Cette définition assure que si (An )n∈N est une suite!d’événements de T deux à deux incompatibles alors
X +∞
[
la SATP P (An ) converge de somme P An .
n>0 n=0
Remarque:
Lorsque ω ∈ Ω, pour simplifier l’écriture on note P (ω) au lieu de P ({ω})
Exemple:
si (Ai )i∈I est un SCE, alors (P (Ai ))i∈I est sommable de somme 1
Probabilité uniforme
Si Ω est fini, on prend le plus souvent T = P(Ω). Alors
X
P (A) = P (ω)
ω∈A
Remarque:
Dans ce qui suit (Ω, T, P ) est un espace probabilisé
II.2. Propriétés
Propriété:
Soit n ∈ N∗ et A, B, A1 , · · · , An ∈ T.
1. P (∅) = 0.
2. Additivité finie : Si A1 , · · · , An sont deux à deux incompatibles
n
! n
[ X
P Ak = P (Ak )
k=0 k=0
3. P A = 1 − P (A).
4. 0 6 P (A) 6 1.
5. P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
6. Croissance :Si A ⊂ B, alors
+∞
X
Preuve: 1. En prenant An = ∅ pour tout n ∈ N, on obtient P (∅) = P (∅), donc P (∅) = 0
n=0
2. On choisit Ak = ∅ pour tout k > n et on exploite la σ-additivité
n
! +∞
! +∞ n
[ [ X X
P Ak = P Ak = P (Ak ) = P (Ak )
k=0 k=0 k=0 k=0
Corollaire:
Soit A0 , · · · , An sont des événements. Alors
n
! n
[ X
P Ak 6 P (Ak )
k=0 k=0
Continuité croissante
Soit (An ) une suite croissante d’événements, alors
+∞
!
[
P An = lim P (An ),
n→+∞
n=0
+∞
[
Preuve: On pose B0 = A0 et Bk = Ak \ Ak−1 pour tout entier k non nul. On pose A = An , on a aussi
n=0
+∞
[
A= Bn . De plus les événements Bk sont deux à deux incompatibles donc d’après la σ-additivité, on a
n=0
+∞
X
P (A) = P (B0 ) + P (Bk )
k=1
Corollaire:
Soit (An ) une suite d’événements, alors
+∞
! n
!
[ [
P An = lim P Ak ,
n→+∞
n=0 k=0
n
[
Preuve: On considère la suite (Bn ) définie par Bn = Ak et on applique le théorème de la limite monotone
k=0
Corollaire:
Soit (An )n∈N une suite des événements. Alors
+∞
! +∞
[ X
P An 6 P (An )
n=0 n=0
La dernière somme tend vers 0 lorsque n tend vers l’infini car c’est le reste d’une série convergente. Par
le théorème d’encadrement, (P (Dn )) tend vers 0.
T
2. On écrit que A = n Dn . On va démontrer que la suite (Dn ) est décroissante. En effet,
Dn = Dn+1 ∪ An .
On peut donc utiliser la continuité monotone décroissante de P pour en déduire
P (A) = lim P (Dn ) = 0.
n→+∞
Presque sûrement, seul un nombre fini des événements An peuvent se produire simultanément.
Continuité décroissante
Soit (An )n∈N une suite décroissante d’événements, alors
+∞
!
\
P An = lim P (An ),
n→+∞
n=0
Preuve: Ici la suite (P (An ))n∈N est décroissante et minorée. Elle est donc cong=vergente. Appliquons le
résultat précédent à la suite croissante d’événements An n∈N . On en tire
!
[
P An = lim P An = 1 − lim P (An )
n→+∞ n→+∞
n∈N
Or ! ! !
\ \ [
P An =1−P An =1−P An
n∈N n∈N n∈N
Corollaire:
Soit (An ) une suite d’événements, alors
+∞
! n
!
\ \
P An = lim P Ak ,
n→+∞
n=0 k=0
n
\
Preuve: On considère la suite (Bn ) définie par Bn = Ak et on applique la propriété précédente
k=0
Continuité monotone
On lance indéfiniment un dé équilibré. Montrer que l’événement « on n’obtient jamais de 6 » est de
probabilité nulle.
Solution: On note
— A l’événement : « on n’obtient jamais de 6 »
— An l’événement « on n’a pas obtenu de 6 lors des n premiers lancers »
En supposant les lancers indépendants n
5
P (An ) =
6
Puisque la suite (An ) est décroissante, on a par continuité
n
5
P (A) = lim P (An ) = lim =0
n→+∞ n→+∞ 6
Événement négligeable
On dit qu’un événement A est négligeable si P (A) = 0.
Exemple:
L’événement impossible est négligeable
Attention:
Ne jamais obtenir de six en lançant indéfiniment un dé équilibré est négligeable est événement négligeable
mais il n’est pas impossible
Propriété:
1. Un événement inclus dans un événement négligeable est négligeable
2. Une réunion au plus dénombrable d’événements négligeables est négligeable.
3. Si A est négligeable, pour tout événement B : P (A ∪ B) = P (B).
Exemple:
L’événement certain est presque sûr.
Attention:
Obtenir un six en lançant indéfiniment un dé équilibré est un événement presque sûr, mais il n’est pas
certain
Propriété:
1. Un événement contenant un événement presque sûr est presque sûr.
2. Une intersection finie ou dénombrable d’événements presque sûrs est presque sûre.
3. Si A est quasi certain, pour tout événement B : P (A ∩ B) = P (B).
Propriété:
La famille de réels positifs (pω )ω∈Ω est sommable et de somme égale à 1.
Théorème:
Si (pω )ω∈Ω est une famille de réels positifs, sommable et de somme égale à 1 alors il existe une unique
probabilité P sur (Ω, T ) vérifiant
∀ω ∈ Ω, P ({ω}) = pω
De plus, celle-ci est déterminée par
X
∀A ⊂ Ω, P (A) = pω
ω∈A
et donc
+∞
X
P (A) = P (An )
n=0
Cas fini
Soit Ω = {ω1 , · · · , ωn }. Une probabilité sur Ω est entièrement déterminée par le choix de pω1 , · · · , pωn ∈ R+
avec
X n
pωi = 1
k=1
1
— En prenant pk = , on définit l’équiprobabilité sur [[1, n]].
n
— En prenant pk = Cnk pk (1 − p)n−k avec p ∈ ]0, 1[, on définit une probabilité sur [[0, n]]
Cas de Ω = N
Une probabilité sur N est déterminée par le choix de (pn )n∈N ∈ RN
+ avec
+∞
X
pn = 1
n=0
L’équiprobabilité sur N est impossible. Plus généralement, elle est impossible sur Ω infini dénombrable.
En revanche
λn
1. La suite (pn )n>0 donnée par pn = e−λ avec λ ∈ R+ définit une probabilité sur N.
n!
2. La suite (pn )n>1 donnée par pn = p(1 − p)n−1 avec p ∈ ]0, 1[ définit une probabilité sur N∗
Définition:
Soit A un événement avec P (A) 6= 0.
La probabilité conditionnelle de B sachant A est définie par
P (A ∩ B)
PA (B) = P (B|A) = .
P (A)
Propriété:
un espace probabilisé et A un événement avec P (A) > 0. Alors l’application
T −→ R+
PA :
B 7−→ PA (B)
Remarque:
PΩ = P .
Corollaire:
Soit (Ω, T, P ) un espace probabilisé et H un événement de probabilité non nulle
1. PH (∅) = 0, PH (Ω) = 1 et si H ⊂ A, PH (A) = 1
2. Si A et B sont incompatibles, alors PH (A ∪ B) = PH (A) + PH (B).
3. Additivité finie : Si Soit A1 , · · · , An ∈ T deux-à-deux disjoints, alors
n
! n
[ X
PH Ai = PH (Ai )
i=1 i=1
4. PH (A) = 1 − PH (A) ;
5. Si A ⊂ B alors PH (A) 6 PH (B) ;
6. Formule d’inclusion-exclusion :
PH (A ∪ B) = PH (A) + PH (B) − PH (A ∩ B)
Probabilité composées
n
!
\
On a pour toute famille finie (Ai )16i6n d’événements telles que P Ai 6= 0
i=1
n
!
\
P Ai = P (A1 )P (A2 |A1 ) · · · P (An |A1 ∩ · · · An−1 ).
i=1
n
\ i
\
Preuve: Pour tout i ∈ [[1, n − 1]], on a Aj ⊂ Aj d’où
j=1 j=1
n
\ i
\
0<P Aj 6 P Aj
j=1 j=1
i
\ i
\
Donc P Aj n’est nul pour aucun i ∈ [[1, n − 1]] et on peut conditionner par l’événement Aj . Ceci
j=1 j=1
légitime le calcul suivant :
P (A1 )PA1 (A2 )PA1 ∩A2 (A3 ) . . . PA1 ∩A2 ∩···∩An−1 (An )
P (A1 ∩ A2 ) P (A1 ∩ A2 ∩ A3 ) P (A1 ∩ A2 ∩ · · · ∩ An−1 ∩ An )
= P (A1 ) ...
P (A1 ) P (A1 ∩ A2 ) P (A1 ∩ A2 ∩ · · · ∩ An−1 )
n
!
\
= P Ai
i=1
Exemple:
Une urne contient n boules blanches et n boules rouges.
On tire successivement et sans remise n boules dans cette urne.
Déterminons la probabilité qu’une boule rouge figure dans ce tirage.
Exemple:
Une urne contient une boule blanche et une boule rouge.
On tire successivement des boules dans cette urne. A chaque boule tirée, on note la couleur de celle-ci et
on la remet dans l’urne accompagnée d’une boule de la même couleur.
Montrons qu’il est presque sûr que la boule rouge initiale sera tirée.
avec
1 2 n
P (A1 ) = , P (A2 |A1 ) = ,..., P (An |A1 ∩ · · · ∩ An−1 ) =
2 3 n+1
On a donc
1
P (A1 ∩ · · · ∩ An ) =
n+1
Par continuité décroissante !
+∞
\
P An = lim P (A1 ∩ · · · ∩ An ) = 0
n→+∞
n=1
Ainsi, l’événement « toutes les boules tirées sont blanches » est négligeable et l’événement complémentaire « la
boule rouge initiale est tirée » est presque sûr.
Si de plus ∀i ∈ I, P (Ai ) 6= 0
X
P (B) = P (B|Ai )P (Ai ).
i∈I
[
Preuve: Soit B ∈ T . Remarquons tout d’abord B = (B ∩ Ai ).
i∈I
En appliquant l’axiome de σ-additivité à la famille d’événements deux à deux disjoints (B ∩ Ai )i∈I on trouve
X X
P (B) = P (B ∩ Ai ) = P (B|Ai )P (Ai ).
i∈I i∈I
Remarque:
On peut interpréter cette formule en disant que B est un effet provenant de différentes causes Ai .
Exemple:
Une urne contient une boule rouge. Un joueur lance un dé équilibré.
— S’il obtient un six, il tire une boule dans l’urne.
— Sinon, il rajoute une boule blanche dans l’urne et répète la manipulation.
Sachant qu’il est presque sûr que le joueur fera un six, quelle est la probabilité que la boule tirée soit
rouge ?
Solution: Pour n ∈ N∗ , on pose An = « le joueur fait son premier six lors du n-ième lancer » et A0 = « le
joueur n’obtient jamais le six » Le système complet d’événements choisi est (An )n∈N avec L’événement étudié
est B= « la boule tirée est rouge ».
On a P (A0 ) = 0
n−1
∗ 1 5 1
∀n ∈ N , P (An ) = × et P (B|An ) =
6 6 n
Par la formule des probabilités totales
+∞ n−1 +∞ n
X 1 5 1X1 5 1 5 1
P (B) = = = − ln 1 − = ln 6
n=1
6n 6 5 n=1 n 6 5 6 5
Propriété:
Si A et B sont deux événements de probabilités non nulles, on a :
P (A) × PA (B)
PB (A) =
P (B)
P (A ∩ B)
Preuve: Par définition on a PB (A) = .
P (B)
P (A) × PA (B)
De plus P (A ∩ B) = P (A) × PA (B), donc PB (A) = .
P (B)
Propriété:
Soient (Ai )i∈I un système complet d’événements de probabilités non nulles et A et B deux événements
de probabilités non nulles. On a :
PA (B)P (A)
PB (A) = X
PAi (B)P (Ai )
i∈I
Remarque:
Il n’est pas indispensable de retenir par cœur cette formule car elle découle directement de la formule de
Bayes et de la formule des probabilités totales.
Exemple:
Un questionnaire à choix multiples propose m réponses pour chaque question. Soit p la probabilité qu’un
étudiant connaisse la réponse à une question donnée. S’il ignore la réponse, il choisit au hasard l’une
des réponses proposées. Quelle est pour le correcteur la probabilité qu’un étudiant connaisse vraiment la
bonne réponse lorsqu’il l’a donnée ?
Solution: Notons :
On cherche P (C|B). Avec ces notations, les données de l’énoncé peuvent se traduire par :
1
P (C) = p, P (C c ) = 1 − p, P (B|C) = 1, P (B|C c ) =
m
On en déduit :
P (B ∩ C)
P (C|B) =
P (B)
P (B|C)P (C)
=
P (B|C)P (C) + P (B|C c )P (C c )
1×p mp
= =
1 1 + (m − 1)p
1 × p + (1 − p)
m
Définition:
Ont dit que deux événements A et B sont indépendants pour la probabilité P si
P (A ∩ B) = P (A) × P (B)
Propriété:
Deux événements A et B tels que A ait une probabilité non nulle sont indépendants si, et seulement si,
PA (B) = P (B).
Remarque:
1. Deux événements incompatibles A et B avec P (A) > 0 et P (B) > 0 ne sont jamais indépendants.
En effet A ∩ B = ∅ implique P (A ∩ B) = 0 or P (A)P (B) 6= 0.
2. Tout événement de probabilité nulle est indépendant de tout autre événement.
3. Tout événement presque sûr est indépendant de tout autre événement.
Indépendance et incompatibilité
Indépendance et incompatibilité sont deux notions bien distinctes puisque la notion d’indépendance dé-
pend de la probabilité P pas l’incompatibilité. On a quand même si les événements A et B sont in-
dépendants et de probabilité non nulle, A et B ne sont pas incompatibles. En particulier A et A sont
indépendants si A est presque sûr ou presque impossible.
Propriété:
Si A et B sont deux événements indépendants alors il en est de même pour les paires d’événements A et
B, A et B, A et B.
Preuve: Par hypothèse, P (A ∩ B) = P (A)P (B) ; En considérant la réunion disjointe A = (A ∩ B) ∪ A ∩ B ,
nous avons : P (A) = P (A ∩ B) + P A ∩ B , d’où
P A ∩ B = P (A) − P (A ∩ B) = P (A) − P (A)P (B) = P (A) (1 − P (B)) = P (A)P (B)
Donc A et B sont indépendants. L’échange des rôles de A et B dans ce raisonnement donne l’indépendance de
A et B. En réutilisant le premier résultat avec A à la place de A, on obtient alors celle de A et B.
Définition:
Soient A1 , . . . , An des événements.
— On dit que les événements sont deux à deux indépendants pour la probabilité P si pour
tout i 6= j Ai et Aj sont indépendants.
— On dit que les événements sont mutuellement indépendants pour la probabilité P ou tout
simplement indépendants ! pour la probabilité P si pour tout ensemble d’indices I choisis dans
\ Y
{1, . . . , n}, P Ai = P (Ai ).
i∈I i∈I
Remarque:
L’indépendance mutuelle entraîne l’indépendance deux à deux
Exemple:
On lance successivement 2 dés à 6 faces. On note A1 l’événement obtenir un nombre pair avec le premier
dé, A2 l’événement obtenir un nombre impair avec le second dé et A3 l’événement obtenir deux dés de
même parité.
1 1 1 T 1 T
Solution: Ainsi, P (A1 ) = , P (A2 ) = et P (A3 ) = . On a : P (A1 A2 ) = = P (A1 )P (A2 ), P (A2 A3 ) =
2 2 2 4
1 T 1
= P (A2 )P (A3 ), et P (A1 A3 ) = = P (A1 )P (A3 ).
4 4
T3 Q3 1
Mais, P ( i=1 Ai ) = P (∅) = 0 6= i=1 P (Ai ) = . Conclusion Il n’y a aucune implication entre indépendance
8
deux à deux et indépendance mutuelle.
Propriété:
Soient n ∈ N∗ et A1 , . . . , An des événements indépendants pour la probabilité P .
Si pour tout i ∈ {1, . . . , n}, Bi = Ai ou Ai alors les événements B1 , . . . , Bn sont indépendants pour la
probabilité P .
Exemple:
Soit n > 1 un entier fixé. On choisit de manière équiprobable un entier x dans {1, . . . , n}. Pour tout entier
m ∈ [[1, n]], on note Am l’événement "x ∈ [[1, n]] tel que m divise x". On note également B l’événement
"x est premier avec n". Enfin, on note p1 , . . . , pr les diviseurs premiers de n.
1. Exprimer B en fonction des Apk .
2. Pour tout m 6 n qui divise n, calculer la probabilité de Am .
3. Montrer que les événements Ap1 , . . . , Apr sont mutuellement indépendants.
4. En déduire la probabilité de B.
.
5. On note φ(n) le nombre d’éléments inversibles de Z . Démontrer que
nZ
r
Y 1
φ(n) = n 1− .
pk
k=1
Solution: 1. On sait que x est premier avec n si et seulement si aucun des diviseurs premiers de n ne divise
x. On a donc :
B = Ap 1 ∩ · · · ∩ Ap r .
2. Il suffit de calculer le cardinal de Am . Mais si n = km, alors les multiples de m qui sont inférieurs ou
égaux à n sont m, 2m, . . . , km. On a donc
k 1
P (Am ) = = .
n m
3. Soit i1 < · · · < im des entiers distincts choisis dans {1, . . . , r}. On doit prouver que
P (Api1 ) . . . P (Apim ) = P (Api1 ∩ · · · ∩ Apim ).
Mais,
m
Y 1
P (Api1 ) . . . P (Apim ) = .
p
j=1 ij
D’autre part, puisque pi1 , . . . , pim sont premiers entre eux deux à deux, un entier est multiple de pi1 . . . pim
si et seulement s’il est multiple de chaque pij , j = 1, . . . , m. On en déduit que
Api1 ∩ · · · ∩ Apim = Api1 ...pim ,
soit
1
P (Api1 ∩ · · · ∩ Apim ) = ,
pi1 . . . pim
ce qui prouve le résultat voulu.
4. Les événements Ap1 , . . . , Apr sont également indépendants. On en déduit que
r r
Y Y 1
P (B) = P (Apj ) = 1− .
j=1 j=1
pk
.
5. Un élément x de Z , x = 1, . . . , n, est inversible si et seulement s’il est premier avec n. On a donc
nZ
φ(n)
P (B) =
n
ce qui, grâce à la question précédente, donne le résultat voulu.
Définition:
Soit (An )n∈N une suite infinie d’événements.
! les An sont indépendants pour la probabilité P si pour toute partie I finie de N, on
On dit que
\ Y
aP Ai = P (Ai ).
i∈I i∈I
Propriété:
Soit (An )n∈N une suite infinie d’événements indépendants pour la probabilité P .
Si pour tout n ∈ N, Bn = An ou An alors (Bn )n∈N est une suite d’événements indépendants pour la
probabilité P .
Exemple:
λ
Pour s > 1 et λ ∈ R, on pose : P ({n}) = ns pour tout n ∈ N?
1. Pour quelle(s) valeur(s), l’application P détermine-t-elle une probabilité sur (N? , P(N? )) ?
2. Pour p ∈ N? , on introduit l’événement : Ap = {n ∈ N? /p | n}
Exprimer simplement la probabilité de l’événement Ap .
3. On note P l’ensemble des nombres premiers. Vérifier que la famille (Ap )p∈P est constituée d’évé-
nements mutuellement indépendants.
4. En étudiant P ({1}), établir
+∞
X 1 1
s
= Q
n=1
n 1− 1
ps
p∈P
+∞ +∞
X 1 X 1
Solution: 1. La condition P (N∗ ) = P ({n}) = 1 détermine λ = avec ζ(s) = . Inversement,
n=1
ζ(s) n=1
ns
+∞
1 X
cette valeur λ = convient car on a alors pour tout n ∈ N∗ et P ({n}) = 1
ζ(s) n=1
2. On peut exprimer Ap = {pk | k ∈ N∗ } et donc
+∞ +∞
X X λ 1
P (Ap ) = P ({pk}) = = s
ps k s p
k=1 k=1
et donc
N
\
Ap k = A Q
N
pk
k=1 k=1