Elements de La Theorie Des Probabilités
Elements de La Theorie Des Probabilités
Elements de La Theorie Des Probabilités
Eléments de la théorie
des probabilités
Vera Angelova
eISBN: 978-954-91700-9-2
The series Lectures Notes in Computer Science and Technologies of the Institute of Information and
Communication Technologies at the Bulgarian Academy of Sciences presents in an electronic format
textbooks for undergraduate, graduate and PhD students studied various programs related to Informatics,
Computational Mathematics, Mathematical Modeling, Communication Technologies, etc., as well as for all
readers interested in these scientific disciplines. The Lecture Notes are based on courses taught by scientists of
the Institute of Information and Communication Technologies - BAS in various Bulgarian universities and the
Center for Doctoral Training in BAS. The published materials are with open access - they are freely available
without any charge.
Editorial board
eISSN: 2367-8666
The series is subject to copyright. All rights reserved in translation, printing, using illustrations, citations,
distribution, reproduction on microfilm or in other ways, and storage in a database of all or part of the
material in the present edition. The copy of the publication or part of the content is permitted only with the
consent of the authors and / or editors
Objectif 1
Introduction 2
Méthode statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Phases de la méthode statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Méthodes de dénombrement 15
2.1 Outils graphiques de dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.1 Deux variables indépendantes . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2 Variables Conditionnées . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Formules d’analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.2 Formules d’analyse combinatoire. Notions . . . . . . . . . . . . . . . . . 22
2.2.3 Arrangements simples et avec répétitions . . . . . . . . . . . . . . . . . . 23
2.2.4 Permutations simples et avec répétitions . . . . . . . . . . . . . . . . . . 25
2.2.5 Combinaisons simples et avec répétitions . . . . . . . . . . . . . . . . . . 26
2.2.6 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3 Mise au point : additionner ou multiplier ? . . . . . . . . . . . . . . . . . . . . . 27
2.3.1 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.4 Propriétés des combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Test sur le chapitre : Méthodes de dénombrement . . . . . . . . . . . . . . . . . . . . 31
3 Probabilité 33
3.1 Les différents interprétations de la notion de probabilité . . . . . . . . . . . . . . 33
3.1.1 Définition classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.2 Définition fréquentiste . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3 Définition axiomatique de Kolmogorov . . . . . . . . . . . . . . . . . . . 35
3.1.4 Propriétés des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.5 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.1.6 Indépendance statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.7 Probabilité de la conjonction d’événements - (théorème des probabilités
composées, loi de multiplication) . . . . . . . . . . . . . . . . . . . . . . 42
3.1.8 Théorème de la probabilité totale . . . . . . . . . . . . . . . . . . . . . . 43
3.1.9 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.1.10 Interprétation de la formule de Bayes . . . . . . . . . . . . . . . . . . . . 44
3.2 Ensemble fondamental infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Test sur le chapitre : Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4 Modèles d’urne 48
4.1 Différents modes de tirage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.1.1 Tirages avec remise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1.2 Tirages sans remise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.3 Tirages simultanés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Urne contenant deux sortes de boules . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1 Probabilité d’obtention d’un nombre donné de boules . . . . . . . . . . . 54
4.2.2 Schéma (processus) de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . 57
Test sur le chapitre : Modèles d’urne . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5 Variables aléatoires 59
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2 Variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.2.1 Loi ou distribution de probabilité discrète . . . . . . . . . . . . . . . . . 61
5.2.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2.3 Calcul de la probabilité que X appartienne à un intervalle réel à l’aide
de la fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.3 Paramètres descriptifs d’une distribution discrète . . . . . . . . . . . . . . . . . 68
5.3.1 Paramètres de position . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.3.2 Paramètres de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.3.3 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.4 Opérations sur les variables aléatoires . . . . . . . . . . . . . . . . . . . . 75
5.4 Algèbre des variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.4.1 Fonction caractéristique et fonction génératrice . . . . . . . . . . . . . . 77
Schémas 184
Bibliographie 190
Annexe 192
Table 1. Distribution binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
Table 2. Fonction de répartition binomiale . . . . . . . . . . . . . . . . . . . . . . . . 197
Table 3. Distribution de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
Table 4. Fonction de répartition de la loi de Poisson . . . . . . . . . . . . . . . . . . . 206
Table 5. Densité de probabilité de la loi normale centrée réduite . . . . . . . . . . . . 208
Table 6. Fonction de répartition de la loi normale centrée réduite . . . . . . . . . . . 209
Table 6’. Fractiles de la Loi normale centrée réduite . . . . . . . . . . . . . . . . . . . 210
Table 7. Loi de χ2 (Loi de K. Pearson). Valeur de χ2 ayant la probabilité P d’être
dépassée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
Table 8. Fonction de répartition de la loi de χ2 . . . . . . . . . . . . . . . . . . . . . . 212
Table 9. Distribution Tn (Loi de Student). Valeur de Tn ayant la probabilité α d’être
dépassée en valeurs absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Table 10. Distribution Tn (Loi de Student).Valeurs de tn,α de n degrés de liberté ayant
la probabilité α d’être dépassée : P (Tn > tn,α ) = α. . . . . . . . . . . . . . . . . 214
Table 11. Fonction de répartition de la loi de Student Tn . Valeurs de u pour différentes
valeurs de ν et de p dans Fn (u) = P (T < u) = p. . . . . . . . . . . . . . . . . . . 215
Eléments de la théorie des probabilités 1
Objectif
L’objectif de ce manuel est d’enrichir les savoirs en mathématique avec la théorie des probabi-
lités, indispensable pour l’apprentissage des méthodes des théories économiques contemporaines
et en fin de compte la statistique appliquée. Réaliser des connaissances théoriques et des utiles
pratiques pour déterminer des caractéristiques et les lois de distribution des variables aléatoires.
Le manuel encadre des notions de base et des thèmes de la théorie des probabilités : ensembles
probabilistes, combinatoire, probabilité, variables aléatoires et leurs caractéristiques, fonctions
de répartition et de distribution, paramètres, loi des grands nombres, théorème central limite.
Introduction
La statistique a envahi notre vie quotidienne. On ne peut pas ouvrir un journal, assister à un
cours, regarder la TV sans être confronté à des faits statistiques. La statistique est devenue une
nécessité pour connaitre une situation, construire une stratégie, prendre une décision.
Dans le sens moderne ≪la statistique≫ est la science qui développe les fondements théoriques
et la méthodologie de l’étude statistique. C’est un ensemble des principes et des méthodes mis
au point pour recueillir, classer, synthéser et communiquer des données numériques en vue de
leur utilisation.
Le terme ≪les statistiques≫ est perçu dans le sens d’ensembles de données souvent numériques.
Ex. : statistiques de l’emploi, du commerce extérieur.
Ces deux sens du mot statistique ont bien sûr entre eux des liens très étroits.
• on recueille des informations en vue de les traiter
• les méthodes statistiques ne peuvent s’appliquer que sur des données recueillies.
Les méthodes statistiques sont liées à de nombreux et longs calculs réputés ennuyeux, ce qui
justifie la réflexion suivante d’un étudiant : ≪S’il ne me restait qu’une heure à vivre, j’aimerais la
passer dans un cours de statistiques : elle me semblerait tellement plus longue. ≫ Heureusement
aujourd’hui il y a les calculatrices et les ordinateurs.
La statistique n’est pas une science récente. On trouve des exemples de dénombrement ou
de recensement il y a plus de 4 000 ans en Chine, dans la Bible, en Égypte, ... Au 13ème siècle
on assiste au début de la statistique administrative, aux premiers enregistrements des actes
d’état civil : registres des naissances, des mariages, des décès.
Jusqu’au 18ème siècle l’enregistrement des faits conserve un caractère passif.
Au 17ème et 18ème siècles on assiste à l’apparition d’un nouvel outil très important : la
théorie des probabilités (Pascal, Fermât, Huyghens, Bernoulli, Bayes, Gauss, Laplace). Cet
outil appliqué à la statistique va permettre l’élaboration d’une nouvelle phase de la statistique :
l’interprétation des faits. (Condorcet, Poisson, Quetelet)
Au 20ème siècle la statistique est devenue un outil qui intervient dans les domaines les plus
divers : les assurances, l’agriculture, la climatologie, la démographie, les finances, la génétique,
la géographie, l’industrie, la linguistique, la médecine, la pharmacologie, la physique, la plani-
fication, la politologie, la psychologie, la sociologie etc.
Dans le milieu industriel elle intervient aux niveaux successifs de la définition du produit
Méthode statistique
L’analyse du monde réel s’effectue sur une représentation de ce monde dans laquelle l’obser-
vateur a transcrit ce qui lus semblait essentiel. L’observation prolongée d’un même événement
fait apparaitre dans certains cas des permanences qui conduisent à la notion de lois.
Il existe des lois ou liaisons déterministes comme l’allongement d’un ressort en fonction
de la masse ou d’une barre de fer sous l’effet de la chaleur.
Il existe des lois ou liaisons statistiques comme le nombres de voyageurs dans les trans-
ports en commun d’après le jour, l’heure ou le temps qu’il fait. Ce sont des liaisons basées sur
un grand nombre d’observations. C’est ce genre de liaisons que la statistique étudie.
Données statistiques
On peut conditionnellement diviser les méthodes de la statistique inférative par deux - l’esti-
mation des paramètres de la population et des tests d’hypothèses.
Le sujet du cours de Bases de statistique - I partie est la théorie des probabilités - la théorie
qui essaie de contrôler le hasard. Les premières personnes qui s’intéressent aux problèmes des
probabilités sont des mathématiciens français, Blaise Pascal et Pierre de Fermat qui répondent
aux questions soulevées par un adepte des jeux de hasard, le chevalier de Méré. A cette époque,
la théorie des probabilités se développe uniquement en relation avec les jeux de hasard. Mais
avec Pierre Simon Laplace et Karl Friedrich Gauss, les bases de la théorie s’étendent à d’autres
applications et phénomènes.
Le calcul des probabilités fournit une modélisation efficace des situations non déterministes
c’est-à-dire des phénomènes aléatoires ou stochastiques. En ce qui concerne les premiers, le
résultat d’une expérience suit une loi rigoureuse connue (taux de croissance d’une population).
On peut donc ainsi prévoir le résultat pour un événement donné. En revanche dans le cas des
phénomènes aléatoires, le résultat de l’expérience n’est pas connu avec certitude mais fluctue
autour d’un résultat moyen qui est régit par une loi.
Les notions de base sont la variable aléatoire et la probabilité. On calcule les caractéristiques
statistiques de la variable aléatoire et détermine sa loi de probabilité.
Le calcul des probabilités utilise l’analyse combinatoire ainsi que la théorie des ensembles.
On va commencer par l’espace fondamental et les événements de la théorie des ensembles.
On va faire un rappel de l’algèbre des ensembles et l’analyse combinatoire – Arrangements,
Permutations, Combinaisons – les utiles pour compter les objets.
Après on va définir la probabilité, les variables aléatoires – discrets et continues. On va
apprendre à calculer leurs caractéristiques statistiques – moyenne, espérance, variance. Et à la
fin on va considérer quelques lois de probabilité discrètes et continues.
Le cours continue avec les Bases de la statistique - IIe partie, comprenant la Statistique
descriptive - les phases de ressemblance, organisation et analyse de données. La dernière phase
de la méthode statistique - l’interprétation est pourvu dans le sujet de la Statistique appliquée
- Statistique inférative ( estimation et théorie des tests ) .
La vie quotidienne est pleine d’événements dépendants du hasard. Lorsqu’un événement dépend
du hasard, on peut avoir le sentiment qu’il est plus ou moins probable. En particulier, on a l’idée
assez nette que certains événements sont très peu probables : quoique ce ne soit pas impossible,
il est, par exemple, très peu probable qu’un jour donné aucune voiture ne traversera un grand
carrefour.
Quoique la présence du hasard dans la vie, il faut cependant prendre des décisions et cela
en assumant des risques, c’est-à-dire en agissant de telle façon que la réalisation d’un certain
événement dépendant du hasard puisse entraı̂ner des conséquences désastreuses. Une conduite
sage consiste à ne prendre que des risques minimes. L’exemple, bien connu, d’une compagnie
d’assurance montre une telle conduite.
Une compagnie d’assurance assure n abonnés contre un certain risque et s’engage à verser
une somme a à chaque abonné sinistré. Quelle prime b devra-t-elle demander à chaque abonné ?
Le nombre X des abonnés qui seront sinistrés dépend du hasard. Il n’est pas impossible que
tous les abonnés soient sinistrés, c’est-à-dire que l’on ait X = n. Pour ne pas être en perte
dans ce cas, et compte tenu de ses frais, la compagnie devrait demander une prime b supérieure
à la somme a. Si elle le faisait, elle ne trouverait aucun client. La compagnie d’assurance va
donc prendre le risque de perdre de l’argent, mais elle s’arrangera pour que ce risque soit faible,
c’est-à-dire qu’elle choisira la prime b de telle sorte qu’il soit très peu probable que la somme
aX qu’elle aura à verser, augmentée de ses frais et d’un certain bénéfice minimum, dépasse
la somme na qu’elle aura touchée. Pour déterminer b, elle se servira alors de la Théorie des
probabilités.
La Théorie des Probabilités permet de mesurer la probabilité de certains événements et
donne des règles de calcul sur ces probabilités. A l’aide du calcul des probabilités on peut créer
un modèle mathématique s’adapte à la situation envisagée qui permet d’étudier dans quelles
conditions certains événements sont très peu probables, ou très probables, et permet donc de
choisir une ligne de conduite rationnelle. Sans prêter trop d’importance à ces mots, on peut
donc dire que la Théorie de probabilités permet de ≪dominer le hasard≫.
Chapitre 1
Un espace probabilisé est la donnée de trois objets : (Ω, T , P ) où Ω est l’ensemble des ”résultats
possibles” d’une expérience aléatoire, T un ensemble ”d’événements”, et P une ”loi de proba-
bilité” sur cet ensemble. Précisons la signification de ce vocabulaire :
Jetons en l’air une pièce de monnaie. On ne peut pas prévoir avec certitude le résultat
du jet en avance, mais le résultat est clairement identifiable - ≪face≫ ou ≪pile≫. En plus, on
peut décrire avant le jet l’ensemble de tous les résultats possibles : ≪face≫ ou ≪pile≫. Alors
ce jet constitue une épreuve (une expérience aléatoire), cest-à-dire un expérience dont le
résultat est incertain.
On appelle expérience aléatoire (épreuve) toute expérience qui satisfait les conditions
suivantes
• on ne peut pas prévoir avec certitude (avant l’expérience) le résultat de l’expérience, mais
ce résultat est clairement identifiable ;
• on peut décrire, avant l’expérience, l’ensemble de tous les résultats possibles.
Très souvent le hasard résulte, ou bien d’un manque d’informations sur les conditions ex-
périmentales, ou bien de l’impossibilité pratique d’exploiter les données expérimentales pour
prévoir le résultat.
Pour étudier un phénomène aléatoire, il faudra d’abord l’assimiler à une expérience aléatoire
(qui est presque toujours une notion idéale ou virtuelle) et associer ensuite à ce phénomène
un modèle mathématique ; c’est sur ce modèle qu’on pourra le plus commodément raisonner et
calculer. Les notions suivantes sont des éléments de cette modélisation.
L’éventualité est une propriété (ou qualité) E liée au résultat (ou à l’issue) de l’expérience
aléatoire : à chaque mise en œuvre de l’événement aléatoire, ou bien E est réalisée, ou bien E
n’est pas réalisée.
Exemple 1.1.1 Envisageons l’expérience élémentaire telle que le jet d’une pièce de monnaie
dans l’air. Ce jet constitue une épreuve, c’est-à-dire une expérience dont le résultat est incertain.
Dans cette expérience, deux résultats (deux événements) sont possibles, un côté ≪face≫ (F) et
un côté ≪pile≫ (P). Si l’expérience est constituée du double jet d’une pièce de monnaie, quatre
résultats (éventualités) sont envisageables : FF, FP, PF, PP.
Une expérience qui consiste à prendre la température d’un patient dans un hôpital a un très
grand nombre de résultats possibles qui dépendent du degré de précision avec lequel le ther-
momètre est étalonné. Pour cette expérience, il est pratique de supposer que la température du
patient peut prendre n’importe quelle valeur entre 35o C et 42o C. ✷
Exemple 1.1.2 On jette deux dés de couleurs différentes : le résultat de l’expérience est ex-
primé par la donnée des nombres affichés par chacun des dés.
Ω = {[a, b]; a, b entiers compris entre 1 et 6} ✷
Exemple 1.1.3 On tire ”au hasard” successivement et sans remise, deux boules d’une urne
contenant 10 boules numérotées de 1 à 10 : le résultat peut être exprimé par la succession des
deux numéros des boules tirées.
Ω = {[a, b]; a, b entiers distincts compris entre 1 et 10}. ✷
Exemple 1.1.4 On note la taille d’un individu pris ”au hasard” dans une population donné,
le nombre consiste en un nombre réel (l’unité de longueur ayant été choisie)
Ω = R+ = [0, +∞[. On pourra en pratique se restreindre à un intervalle plus petit. ✷
Exemple 1.1.5 (Jeu de pile ou face) si l’épreuve consiste à jouer 2 fois à pile ou face.
Ω = {P P, P F, F P, F F }. ✷
– ensemble infini dénombrable - si l’on peut numéroter chacun des résultats (tirage
avec remise).
Exemple 1.1.6 Considérons l’expérience aléatoire ”le lancer du dé” Ω = {1, 2, 3, 4, 5, 6}.
Dans le cadre de cette expérience, on peut s’intéresser à différents ”événements”
E1 : l’événement : ”Le résultat est paire” : E1 = {2, 4, 6} et E1 ∈ Ω
E2 : l’événement : ”Le résultat est supérieur ou égal à 3” : E2 = {3, 4, 5, 6} et E2 ∈ Ω
E3 : l’événement : ”Le résultat est divisible par 3” : E3 = {3, 6} et E3 ∈ Ω. ✷
Pour le caractériser, on exprime une condition qui le détermine (pour le cas de E1 de l’Exemple
(1.1.6) : ”Le résultat est paire”) ou on énumère ses éléments (E1 = {2, 4, 6}).
Un événement est réalisé si le résultat de l’expérience appartient à ce sous-ensemble E ∈ Ω.
Exemple 1.1.7 A la sortie d’un point de vente, on demande à 3 personnes si elles ont acheté
un produit V.
Ceci constitue une expérience aléatoire qui peut être décomposée en 3 épreuves aléatoires
individuelles, chaque épreuve ayant un ensemble fondamental Ω′ = {A, N A} avec A = acheteur
N A = non acheteur.
L’ensemble fondamental Ω, associé à l’expérience aléatoire ≪interroger 3 personnes sortant
du point de vente≫, peut être défini en extension par
En effet, pour chaque épreuve, il y a 2 résultats possibles, ce qui fait que pour ces 3 épreuves
il y a 23 = 8 résultats possibles.
Dans ce cas Ω est un ensemble fondamental discret et fini puisqu’il convient 8 résultats.
Dans cet ensemble fondamental fini Ω on peut définir l’événement E = ≪avoir exactement
2 acheteurs≫ avec
E = {(A, N A, A), (A, A, N A), (N A, A, A)}.
Evénements remarquables
Exemple 1.1.8 Un tombola est émise. Elle comporte 1000 billets. Parmi ceux-ci, on tire un
seul billet gagnant. L’événement certain est de gagner le lot si on ait acheté tous les billets. ✷
Exemple 1.1.9 Une tombola est émise. Elle comporte 1000 billets. Parmi ceux-ci, on tire un
seul billet gagnant.
L’événement pour une personne n’ayant acheté de billet, de gagner le lot est impossible. ✷
- T soit stable par réunion (pour prononcer ”ou” dans la phrase), et par intersection
(”et”) ;
Définition 9 Egalité : deux événements E1 et E2 sont égaux ss’ils sont représentés par
deux sous-ensembles composés des mêmes éléments.
E1 implique E2
avoir comme conséquence
G = E1 ∩ E2 = E1 et E2
w ∈ G ⇐⇒ (w ∈ E1 et w ∈ E2 )
L’intersection G des deux événements E1 et E2
figure en jaune sur le graphe ci-contre.
réunion de E1 et E2
Exemple 1.2.1 Pour les deux événements E1 = (30 ≤ X ≤ 36) et E2 = (34 ≤ X ≤ 48) la
Exemple 1.2.2 Sur le jeu de pile ou face (exemple 1.1.5 avec deux lancers : l’événement
élémentaire ”PP” (2 fois pile) est intersection de l’événement A = ”d’abord pile”= {P P, P F },
avec l’événement B = ”Pile au 2ème lancer”={P P, F P }. L’événement réunion A ∪ B est
l’événement ”au moins une fois pile” ; l’événement complémentaire A ∪ B de A ∪ B est l’
événement ”jamais pile”, c’est-à-dire ”deux fois face”. ✷
E1 et E2 sont incompatibles : E1 ∩ E2 = ∅
Exemple 1.2.3 Les événements E1 = (30 ≤ X ≤ 35) et E2 = (X est un multiple de 13) sont
incompatibles. ✷
Exemple 1.2.4 Jet d’un dé. L’événement A = {nombre unpaire} et l’événement B = {le
résultat est six } sont deux événements incompatibles. Dans le cas A = {1, 3, 5}, B = {6}.
A∩B =∅ ✷
Les événements E1 , E2 , E3 , E4 , E5 , E6
forment un système complet d’événements.
1. A ∪ B = B ∪ A ; A ∩ B = B ∩ A - commutative
2. A ∪ (B ∪ C) = (A ∪ B) ∪ C ; A ∩ (B ∩ C) = (A ∩ B) ∩ C) - associative
3. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) ; A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) - distributive
4. A ∪ B = A ∩ B ; A ∩ B = A ∪ B - lois de Morgan.
A ∩ Ā = ∅ événements incompatibles
Ω∩A=A élément neutre (Ω)
∅∩A=∅ élément absorbant (∅)
A∩B =B∩A commutativité
A ∩ (B ∩ C) = (A ∩ B) ∩ C associativité
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) distributivité avec la réunion (∪)
A ∪ Ā = Ω événements complémentaires
∅∪A=A élément neutre (∅)
Ω∪A=Ω élément absorbant (Ω)
A∪B =B∪A commutativité
A ∪ (B ∪ C) = (A ∪ B) ∪ C associativité
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) distributivité avec l’intersection (∩)
2. Quelles conditions doit vérifier une expérience pour être expérience aléatoire ?
Donnez la définition d’une expérience aléatoire.
Chapitre 2
Méthodes de dénombrement
• selon que l’on compte ou non de l’ordre des éléments - dispositions ordonnées et non
ordonnées.
Exemple 2.0.3 Les deux dispositions (a, b) et (b, a) sont différentes s’il s’agit de
dispositions ordonnées.
Exemple 2.0.4 Les deux dispositions (a, b) et (b, a) sont identiques s’il s’agit de
dispositions non ordonnées.
Pour décrire une situation de dénombrement, on peut utiliser les techniques graphiques ou
les formules de l’analyse combinatoire.
Lorsque les donnés correspondant à ces deux variables ne dépendent pas l’une de l’autre.
Exemple 2.1.1.1 Dans une classe de 34 élèves, 20 ont 16 ans, 25 pratiquent l’anglais, dont 13
élèves de 16 ans.
Analyse : les deux variables ici sont l’age et la langue.
Comment représenter ces informations ? Deux modèles sont possibles : un tableau double
entrées ou un diagramme de Venn.
Remarque : L’ensemble barré est l’ensemble complémentaire, c’est à dire les éléments
qui ne possèdent pas le critère de cet ensemble.
On obtient ainsi le tableau suivant en inscrivant les données fournies par l’énoncé.
A Ā Total
B 13 20
B̄
Total 25 34
A Ā Total
B 13 7 20
B̄ 12 2 14
Total 25 9 34
L’autre possibilité consiste à faire des “patates” pour représenter la classe ainsi que ses
différentes critères.
2. Diagramme de Venn
Un diagramme, tel qu’un diagramme de Venn, permet de mettre en évidence, sur une
figure, un ensemble et certaines de ses parties.
Pour l’exemple considéré on obtient le diagramme suivant :
En bleu on a représenté les élèves pratiquants l’anglais, en brique les élèves de 16 ans, en
jaune les élèves de 16 ans qui pratiquent l’anglais. La partie beige représente les élèves
qui ne pratiquent pas l’anglais et ne sont pas à 16 ans.
Exemple 2.1.1.2 Dans un groupe de 450 élèves, 30% des élèves sont en Première, 64% des
élèves sont des filles et 75 filles sont en Première.
1. Traduire ces informations dans un tableau et compléter.
2. Quelle est la part des garçons dans les Première ?
3. Quelle est la part des Première parmi les garçons ?
4. Faire un diagramme correspondant à ces deux critères
Solution
F G Total
P 75 60 135
1. Arbre pondéré
Le premier niveau de l’arbre sera représenté par la variable non conditionnée et le second
par la variable conditionnée.
Il convient d’énoncer les règles qui régissent un arbre pondéré :
• La loi des nœuds : la somme des coefficients autour d’un nœud est égal à 1
• Lorsque l’on suit un chemin sur l’arbre, on multiplie les coefficients
• Tous les coefficients sont exprimés par un nombre compris entre 0 et 1.
Exemple 2.1.2.1 Dans un lycée de 2500 élèves, 38 % sont en classe de 2nde , 28 % en 1re
et le reste en Tle . De plus, on sait que :
Pour déterminer le pourcentage d’externes, il faut tenir compte des trois chemins pour
obtenir des externes. Le pourcentage d’externes est donc :
% d’externes = 100 × 0.38 × 0.48 + 100 × 0.28 × 0.65 + 100 × 0.34 × 0.52
= 100(0.38 × 0.48 + 0.28 × 0.65 + 0.34 × 0.52)
= 100(0.1824 + 0.128 + 0.1768)
= 54.12%
2. Arbres de choix
Un arbre est une représentation graphique qui permet de dénombrer des choix d’éléments
pris dans un certain ordre :
• Au premier niveau, une première série de branches indique les choix d’un premier
élément ;
• Au deuxième niveau, une autre série de branches indique les choix d’un deuxième
élément ;
• Etc.
Pour dénombrer tous les choix, il suffit de compter les branches au bout de l’arbre.
Exemple 2.1.2.2 On dispose des chiffres 1 ; 5 ; 7. On veut former des nombres de trois
chiffres en utilisant chacun des ces chiffres une fois et une seule. On se demande combien
on peut en obtenir.
Dessiner un arbre de choix. Combien de nombres peut-on ainsi trouver ?
Solution : Le premier chiffre /le chiffre des centaines/ peut être soit 1, soit 5 ; soit 7 : il y
a trois choix possibles.
L’arbre comporte trois niveaux. Le premier niveau comporte 3 branches, le deuxième deux
branches pour chaque branche du premier niveau et le troisième niveau une branche pour
chaque branche du deuxième niveau.
A l’arrivée, l’arbre comporte six branches.
Il y a donc six nombres possibles.
2.1.3 Synthèse
• Dans un exercice de dénombrement, il faut choisir le mode de représentation des données
le plus adéquat.
• Quand on étudie simultanément deux caractères sur une population et qu’à chaque ca-
ractère correspond un couple de valeurs, on peut présenter les résultats du dénombrement
sous forme de tableau à double entrée (on parle aussi de tableau croisé).
• Pour présenter les résultats d’un dénombrement, on peut également faire appel à un
diagramme composé d’ensembles circulaires, chaque ensemble correspondant à un des ca-
ractères étudiés. Lorsque ces caractères sont incompatibles, les ensembles correspondants
n’ont pas d’intersection.
• Lorsqu’au cours d’une étude, on a une succession de choix, on représente les différentes
possibilités à l’aide d’un arbre. Il se peut que chaque choix soit pondéré ; les branches de
l’arbre portent alors des coefficients et l’arbre est dit pondéré. C’est souvent le cas lorsque
l’information est donnée sous forme de pourcentages ou de pourcentages de pourcentages.
Il est alors nécessaire de connaı̂tre la ≪loi des nœuds≫ : la somme des coefficients affectés
aux branches issues d’un même nœud vaut 1 ou 100 %. Il faut également savoir utiliser
le ≪principe multiplicatif≫ : le coefficient affecté à un chemin est égal au produit des
coefficients des branches qui le composent.
2.2.1 Introduction
L’analyse combinatoire est une branche des mathématiques qui étudie comment dénombrer des
objets dans un ensemble fini.
Nous obtenons 24 possibilités. Pour énumérer tous ces nombres, nous avons respecté un certain
ordre : choix du premier chiffre, suivi du choix du second et enfin du troisième.
p
Définition 19 On appelle arrangement simple Am le nombre de manières de choisir
p éléments ordonnés dans Ω sans répétition (on ne peut reprendre un élément déjà
choisi) :
m!
Apm = m(m − 1) . . . (m − p + 1) = (m−p)!
.
D’ici 20! ≈ 1018.38431521 = 2.423 × 1018 . L’erreur relative est de l’ordre de 4.2 × 10−3 .
Remarque 20 Deux arrangements simples sont différents dès que l’un contient un élément que
l’autre ne contient pas ou s’ils contiennent les mêmes éléments placés dans un ordre différent.
p
Définition 21 On appelle arrangement avec répétitions Ām le nombre de manières de
choisir p éléments ordonnés dans Ω avec répétition (on accepte de reprendre plusieurs
fois un élément déjà choisi) :
Āpm = mp .
Exemple 2.2.3.3 Combien de nombre de 3 chiffres peut-on former avec les chiffres de 1 à 4
en acceptant de prendre plusieurs fois le même chiffre ?
Il s’agit de choix de 3 éléments ordonnés dans l’ensemble E4 = {1, 2, 3, 4} avec répétition
=⇒ Ā34 :
Ā34 = 43 = 64 /P OW ER(4; 3)/.
3. Combien de mots (lisibles ou non) de 5 lettres distincts peut-on former avec les lettres de
l’alphabet ?
4. Combien y a-t-il de ces mots si on peut utiliser plusieurs fois la même lettre ?
Pm = Am
m = m(m − 1) . . . (m − m + 1) = m(m − 1) . . . 1 = m!
Exemple 2.2.4.1 Le nombre de manières de placer 8 convives autour d’une table est :
r r ...r
Définition 23 On appelle permutation avec répétitions P̄m1 2 n de m éléments parmi
lesquels 1 élément se répète r1 fois, un autre r2 fois, . . ., rn fois (r1 + r2 + . . . rn = m),
tout groupe de ces m éléments placés dans un ordre déterminé :
m!
P̄mr1 r2 ...rn = r1 !r2 !...rn !
En effet, les permutations de p objets identiques sont toutes identiques et ne comptent que
pour une seule permutation.
3. Pour donner une friandise à chaque enfant d’un groupe de 10, on dispose de 3 Léo, 2
bounty et 5 chacha. De combien de façons peut-on effectuer la distribution ?
p
Définition 24 On appelle combinaison simple de m éléments pris p à p, (p ≤ n) : Cn (lu
“combinaison de p parmi n”) le nombre de manières de choisir p éléments non ordonnés
dans Ω sans répétition tous les groupes de p éléments choisis parmi les m donnés :
p Apm m!
Cm = p!
= p!(m−p)!
.
m!
• Il y a Apm manières de tirer p objets parmi m en les ordonnant soit Apm = (m−p)!
.
Exemple 2.2.5.1 Le tirage au hasard de 5 cartes dans un jeu de 32 (main de poker) est une
combinaison avec p = 5 et m = 32 /COM BIN (32; 5) = 201 376/.
Pour ces deux exemples, les objets tirés sont clairement distincts.
2. A la fin d’un repas rassemblant 15 amis, 3 sont chargés de la vaisselle. Combien de groupes
différents peut-on former afin d’exécuter cette tâche ?
Exemple 2.2.5.3 Une urne contient des boules de 5 couleurs différentes et contient au moins 4
boules de chaque couleur. On tire 4 boules de cette urne. Combien de possibilités de groupements
a-t-on ?
Explication : Soit la constitution de mots de 3 lettres à partir d’un alphabet à 5 lettres avec
remise, on distingue 3 cas possibles :
• C53 nombre de mots de lettres différentes et sans ordre
• C52 × 2 nombre de mots de 2 lettres différentes et une lettre redondante
• C51 nombre de mots de 3 lettres identiques
d’où au total : C53 + 2C52 + C51 = C73 en utilisant la formule des combinaisons composées ou
formule de Pascal.
En effet C53 + C52 = C63 et C52 + C51 = C62 d’où C63 + C62 = C73 soit C73 = 35 mots possibles de 3
lettres à partir d’un alphabet à 5 lettres.
p
Ainsi C73 = C5+3−1
3
= Cn+p−1 avec n = 5 et p = 3.
Solution de l’Exemple 2.2.5.3
8!
C̄54 = C5+4−1
4
= C84 = = 70.
4!(8 − 4)!
2.2.6 Synthèse
Quelles questions se poser lors de la résolution d’un problème d’application directe en analyse
combinatoire ? Voir le tableau de Figure (2.1).
Ultérieurement, on rencontre des situations plus générales qui ne peuvent être résolues unique-
ment par le questionnement de ce tableau.
Solution
2.3.1 Synthèse
Soit une opération qui peut se réaliser de N façons.
Situation additive : Si ces N façons peuvent se séparer en k catégories disjointes deux à deux
n
n
n
1. Pour le coefficient binomial k
(lu “k parmi n”) on a : 0
= 1; n
=1
2. La symétrie
Cnp = Cnn−p .
En effet, en raison de la symétrie de la formule :
n! n!
Cnp = = = Cnn−p .
p!(n − p)! (n − p)!n!
Autrement dit, puisque l’ordre n’importe pas, choisir p éléments parmi n revient à choisir
les n − p éléments qui n’appartiennent pas à la combinaison.
3. Combinaisons composées ou Formule de Pascal
p−1 p
Cnp = Cn−1 + Cn−1 .
On peut aussi démontrer la relation dessus en notant que, si on désigne à l’avance un
objet parmi n, les combinaisons possibles avec ces n objets pris p à p se décomposent en
deux catégories :
p−1
• celles qui contiennent cet objet. Il y en a Cn−1 ; pour compléter chaque combinaison il
suffit en effet de choisir (p − 1) objets parmi les (n − 1) restants.
p
• celles qui ne contiennent pas cet objet. Il y en a Cn−1 ; pour les obtenir il faut en effet
choisir p objets parmi les (n − 1) qui sont différents de l’objet désigné.
4. Application :
(a) Développement du binôme de Newton2 (a + b)n
Connaissant les nombres Cnp , on peut développer le binôme de Newton (a + b)n :
n n
n
X
k n−k k
X n n−k k
(a + b) = Cn a b = a b .
k=0 k=0
k
2
Newton Issac (1642-1727), mathématicien et physicien anglais
(a + b)1 = 1a + 1b
(a + b)2 = 1a2 + 2ab + 1b2
(a + b)3 = 1a3 + 3a2 b + 3ab2 + 1b3
a = b = 1,
Cnp = Cnn−p .
ii. Chaque terme est la somme du terme immédiatement supérieur et de celui qui
se trouve à gauche de celui-ci. Si on connait les éléments de la ligne (n − 1), on
connait automatiquement ceux de la ligne n par la formule
p−1 p
Cn−1 + Cn−1 = Cnp .
3
Pascale Blaise (1623-1662) mathématicien, physicien, philosophe et écrivain français
❍
❍❍ p
❍ 0 1 2 3 4 5 6 7 ... p−1 p
n ❍❍
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
7 1 7 21 35 35 21 7 1
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . ... .
p−1 p
n−1 1 ... Cn−1 Cn−1
n 1 ... Cnp
x1 + x2 + . . . + xk = n (2.2)
k−1
a) Le nombre des solutions non-négatives de l’équation (2.2) est Cn+k−1 .
k−1
b) Le nombre des solutions entières et positives de l’équation (2.2) est Cn−1 .
1. S’il s’agit de dispositions ordonnées, les deux dispositions (a, b) et (b, a) sont
2. Deux dispositions contenant les mêmes éléments, qui n’occupent pas les mêmes places,
sont considérées comme différentes s’il s’agit de dispositions
3. Deux dispositions sont considérées comme identiques pourvue qu’elles soient constituées
par les mêmes éléments quand il s’agit de dispositions
Chapitre 3
Probabilité
La probabilité P (E) d’un événement aléatoire E est un nombre dans [0, 1] qui exprime la possi-
bilité objective de réalisation de l’événement. Grâce à l’introduction du concept d’événement à
partir de l’ensemble fondamental Ω, nous pouvons introduire le concept de probabilité par son
aspect classique, fréquentiste et axiomatique. De façon générale, si E est un événement de T ,
nous noterons P (E) la probabilité que E se réalise au cours de l’expérience aléatoire à laquelle
on a associé Ω et T . Le nombre P (E) devra être autant plus grand que E soit plus probable,
donc la probabilité P (E) devra être maximum lorsque E est l’événement certain et minimum
lorsque E est l’événement impossible. On décide donc de poser P (E) = 1 lorsque E est certain
et P (E) = 0 lorsque E est impossible. On aura donc toujours
0 ≤ P (E) ≤ 1
Propriétés
TD - Exemple 1. : On jette une pièce de monnaie 4 fois de suite. Quelle est la probabilité
d’obtenir la suite (P, F, F, P)
Solution : Définir Ω : Arrangement de 4 éléments parmi 2 avec répétitions Ā42 = 24 = 16.
P = 1/24 = 1/16. ✷
Mais l’hypothèse d’équiprobabilité est rarement vérifiée pour la plupart des expériences aléatoires
en matière de gestion (prévision de la demande, de l’évolution des prix, du taux de change...).
1
De plus, lorsque Ω est infini, la probabilité d’un résultat est égale à ∞
et tend vers 0.
k
Celle d’un événement E constitué d’un nombre k de résultats est P (E) = ∞
et tend aussi
vers 0.
Dans ces situations, la définition classique de la probabilité est inadéquate.
Exemple 3.1.2.1 Une mutuelle désire déterminer la probabilité de survenance d’un certain
type d’accident afin de fixer sa politique de primes d’assurance. Elle effectue une enquête
statistique sur une population de 100 000 adultes concernés répartis par classes d’âge. Il apparaı̂t
que 800 personnes ont eu ce type d’accident. On peut donc supposer que la probabilité de cet
800
événement est égale à 100000 = 8h = 0.8% ✷.
Remarques :
• Pour des suite distinctes d’expériences on obtient en général des suites différentes de
fréquences, Mais ces suites convergent vers la même valeur limite quand le nombre de
répétition devient élevé.
(Loi des grands nombres. J.Bernoulli : Si l’on répète N fois une expérience dans laquelle la
probabilité d’apparition d’un événement A est P , la fréquence de cet événement au cours
des N expériences, Nk tend vers P lorsque N tend vers l’infini. N → ∞ =⇒ Nk → P .)
• fn (E) est généralement différente de P (E) qui peut être considérée comme une fréquence
théorique.
Définition 26 On appelle probabilité sur (Ω, T ) une fonction P de T dans [0, 1] telle
que :
• P (Ω) = 1
• pour tout ensemble dénombrable d’événements incompatibles 2 à 2, on a :
! n
[ X
P Ai = P (Ai ).
i i=1
TD - Exemple 2. : On jette une pièce de monnaie 4 fois de suite. Quelle est la probabilité
d’obtenir deux fois F et deux fois P ?
Solution : Définir Ω : Arrangement de 4 éléments parmi 2 avec répétitions Ā42 = 24 = 16.
A1 = F F P P , A2 = F P F P , A3 = P F P F , A4 = P P F F , A5 = F P P F , A6 = P F F P ⇒
nombre de cas favorables 6 ⇒ P (∪6 Ai ) = 6/16 = 3/8. ✷
• Cas de deux événements quelconques
P (A ∪ B) = P (A) + P (B)–P (A ∩ B)
Voici pourquoi :
Si nous faisons la somme de A et B nous comptons 2 fois l’intersection A ∩ B. C’est la raison
pour laquelle il faut la retirer une fois de la somme.
Alors :
1. A = Ā ∪ (A ∩ B) avec Ā ∩ (A ∩ B) = ∅, alors P (A) = P (Ā) + P (A ∩ B) et P (Ā) =
P (A) − P (A ∩ B).
2. B = B̄ ∪ (A ∩ B) avec B̄ ∩ (A ∩ B) = ∅ d’où P (B̄) = P (B) − P (A ∩ B)
3. P (A ∪ B) = P (Ā) + P (A ∩ B) + P (B̄) d’où P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Exemple 3.1.4.1 On lance un dé à 6 faces, non pipé, on considère l’événement A : ”le résultat
est pair” et l’événement B : ”le résultat est un multiple de trois”.
On a alors :
Evénement contraire
Voici pourquoi :
Nous avons vu précédemment que
A ∪ Ā = Ω et A ∩ Ā = ∅ Propriétés de la réunion et de l’intersection
P (A ∪ Ā) = P (A) + P (Ā) Propriétés d’additivité des probabilités
d’où P (Ω) = 1 = P (A) + P (Ā) ainsi P (Ā) = 1 − P (A).
Exemple 3.1.4.2 La probabilité lors du lancer d’un dé non pipé d’obtenir ”plus de 2” se
traduit par A = {3, 4, 5, 6} et Ā = {1, 2} d’où P (A) = 1 − P (Ā) = 1 − 2/6 = 4/6 = 2/3.
Remarque : L’application de cette propriété est très utile lorsque le nombre d’événements
élémentaires de A, k, est important et que le calcul des probabilités P (Ai ) est fastidieux (cas
de la loi de Poisson). ✷
Evénement impossible
P (∅) = 0.
Voici pourquoi :
Nous avons vu précédemment que
∅ ∪ Ω = Ω élément neutre
P (∅ ∪ Ω) = P (∅) + P (Ω) Propriétés d’additivité des probabilités
d’où P (Ω) = P (∅) + P (Ω) ainsi P (∅) = 0
Inclusion
Voici pourquoi :
Exemple 3.1.5.1 Soit lors de n répétitions d’ une expériences l’événement A s’est réalisé k
fois, l’événement B - m fois, et l’événement A ∩ B - r fois.
P (A ∩ B)
P (A|B) = ,
P (B)
c’est-à-dire la relation entre le nombre r des essais, dont (A ∩ B) est surgi et le nombre
de réalisation de l’événement B.
Exemple 3.1.5.2 Dans une urne il y a n boules, dont m blanches et n − m noires. On tire une
boule et sans remise on tire une deuxième. Quelle est la probabilité pour que la seconde boule
soit blanche, si la première est :
a) blanche
b) noire.
Solution :
a) Si B = ’lors du premier tirage la boule est blanche’, on a tirage sans remise, alors les cas
favorables pour le deuxième tirage sont (m − 1) de tous les (n − 1) cas possibles. La probabilité
conditionnelle P (A|B) est P (A|B) = m−1
n−1
.
m
b) De la même façon on obtient P (A|B̄) = n−1 .
Exemple 3.1.5.3 On jette un dé : si on sait que le nombre obtenu est pair, et en l’absence
de toute autre information, la probabilité d’avoir 2 est intuitivement 1/3, celle d’avoir 1 est
évidemment 0 : ce qui est en accord de la définition de P (B|A). |Ω| = |{1, 2, 3, 4, 5, 6}| = 6, A
= ’pair’, B = ’2’, P (B|A) = P P(A∩B)
(A)
= 13 , A = {2, 4, 6}, B = {2}, A ∩ B = {2}.
P (A ∩ B) = P (A).P (B).
P (A ∩ B) = P (A) . P (B),
P (A ∩ B) = P (B) . P (A|B).
Alors on obtient P (A) . P (B) = P (B) . P (A|B) =⇒ P (A|B) = P (A).
b) suffisance : Si P (A|B) = P (A), alors pour P (A ∩ B) on obtient
Exemple 3.1.6.1 (1) Dans l’exemple du lancer d’un dé à 6 faces, non pipé, les deux événements :
A = ” le résultat est pair” et B = ”le résultat est un multiple de trois” sont statistiquement
indépendants.
En effet, soit A = {2, 4, 6} B = {3, 6} A ∩ B = {6}
ainsi P (A) = 3/6 P (B) = 2/6 P (A ∩ B) = 1/6
on vérifie alors que : P (A ∩ B) = P (A)P (B) = 3/6 × 2/6 = 6/36 = 1/6.
(2) Si l’on considère une famille de deux enfants, les deux événements : A = ”enfants de sexe
différent” et B = ”au plus une fille” ne sont pas statistiquement indépendants.
En effet, l’espace probabilisé Ω, contient 4 événements élémentaires (si l’on considère une fa-
mille ordonnée), Ω = A ∪ B = {GG, GF, F G, F F }
avec A = {GF, F G}, B = {GG, GF, F G} et A ∩ B = {GF, F G}
d’où sous l’hypothèse d’équiprobabilité : P (A) = 1/2, P (B) = 3/4 et P (A ∩ B) = 1/2
On vérifie alors que : P (A ∩ B) 6= P (A)P (B) = 1/2 × 3/4 = 3/8 6= 1/2.
P (A ∩ B) = P (A) . P (B).
indépendants ✷
L’ensemble fondamental Ω est donc discret et fini (il est représenté par les 1000 clients observés).
Si l’on suppose l’équiprobabilité des résultats, on peut utiliser la définition classique de la
probabilité et réaliser un tableau de distribution des probabilités selon les 2 caractères “sexe” et
“comportement d’achat”.
A Ā Total
25 225
H 1000
= 0.025 1000
= 0.225 0.25
175 575
F 1000
= 0.175 1000
= 0.575 0.75
⇒ P (F ∩ A) ≤ P (A)
P (A ∩ B) = P (A).P (B).
Exemple 3.1.7.1 On va calculer des probabilités attachées à l’expérience du tirage sans remise
de 3 boules d’une urne ; on suppose que l’urne contient initialement 10 boules dont 5 rouges, 3
noires et 2 blanches. Calculons à l’aide des probabilités conditionnelles P (RN B). On a :
RN B = A1 ∩ A2 ∩ A3
où A1 =”la 1ère boule tirée est rouge”, A2 = ”la 2ème boule tirée est noire” et A3 = ”la 3ème
boule tirée est blanche”.
Clairement P (A1 ) = 5/10 = 1/2(toutes les boules ayant la même probabilité d’être d’abord
tirées) ; de plus P (A2 |A1 ) = 3/9 = 1/3 et P (A3 |A1 ∩ A2 ) = 2/8 = 1/4. D’où d’après la formule
des probabilités composées :
5 32 1 1
P (RN B) = = = .
10 9 8 2×3×4 24
Exemple 3.1.7.2 Une série de 100 détails est contrôlé. La condition de rejet du lot est
l’événement Ā = au moins un détail parmi 5 est défectueux. Trouver la probabilité de l’événement
Ā si 5% des détails sont défectueux.
Solution :
L’événement Ak (k = 1, 2, 3, 4, 5) signifie i-ème détail vérifié est conforme. Alors l’événement
P (A) = P (A1 ∩ A2 ∩ A3 ∩ A4 ∩ A5 ) =
95 94 93
P (A1 ) = , P (A2 |A1 ) = ; P (A3 |A1 ∩ A2 ) = ;
100 99 98
92 91
P (A4 | ∩i=1 Ai ) = ; P (A5 | ∩i=1 Ai ) = .
97 96
Alors,
95 94 93 92 91
P (Ā) = 1 − P (A) = 1 − . . . . = 0.23
100 99 98 97 96
alors : m
X
P (A) = P (Ei )P (A|Ei ).
i=1
Exemple 3.1.8.1 Une population animale comporte 1/3 de mâles et 2/3 de femelles. L’albi-
nisme frappe 6 % des mâles et 0,36 % des femelles. La probabilité pour qu’un individu pris au
hasard (dont on ignore le sexe) soit albinos est ? :
Si A = {mâle} et Ā = {femelle} constituent un système complet d’événements.
Soit B = {albinos}.
On a P (A) = 1/3, P (Ā) = 2/3,
P (B|A) = 6% = 0.06, P (B|Ā) = 0.36% = 0.0036.
sachant que P (B) = P (B/A)P (A) + P (B/Ā)P (Ā)
alors P (B) = (0, 06 × 1/3) + (0, 0036 × 2/3) = 0, 0224
soit 2,24% d’albinos dans cette population.
On considère les événements Ei comme des causes incompatibles (les Ei forment une partition
de Ω), dont une et une seule est réalisée (Er ).
On considère A comme la conséquence des causes Ei (la probabilité que A soit la conséquence
de Er = P (A|Er )).
Le théorème de Bayes donne la probabilité que, A étant réalisé, l’événement Er en soit la
cause = P (Er |A).
Exemple 3.1.10.1 Dans une usine, 4 machines fabriquent des pièces mécaniques dans les
proportions suivantes : M1 = 40%, M2 = 20%, M3 = 15%, M4 = 25%. On sait que les taux de
production de pièces défectueuses est de 4% pour M1 , 3% pour M2 , 2% pour M3 et 3% pour
M4 .
1. On choisit une pièce au hasard dans la production d’une journée. Quelle est la probabilité
que cette pièce soit défectueuse ?
2. Quelle est la probabilité que la pièce choisie provienne de M2 sachant qu’il s’agit d’une
pièce défectueuse ?
1. Ω ∈ T ;
2. si E ∈ T , alors Ē ∈ T ;
S∞
3. si pour tout i Ei ∈ T , alors E = ( i Ei ) ∈ T , c.à.d. l’opération ∪ est dénombrablement
permise.
Une telle famille est appelé une σ-algèbre (ou corps de Borel ou tribu). Dans ces conditions,
une fonction réelle P , définie sur les éléments d’une σ−algèbre T de Ω est appelé probabilité
si elle satisfait aux axiomes suivants :
2. P (Ω) = 1
{E1 , E2 , . . P
3. Si S .} est une suite d’événements de T telle que pour i 6= j Ei ∩ Ej = ∅, alors
P( ∞ i E i ) = i P (Ei ).
3.3 Synthèse
Une loi de probabilité P sur un ensemble Ω doit être telle que l’on ait toujours :
0 ≤ P (E) ≤ 1 (3.1)
P (∅) = 0, et P (Ω) = 1 (3.2)
P (Ē) = 1 − P (E) (3.3)
P (E1 + . . . + Ek ) = P (E1 ) + . . . + P (Ek ). (3.4)
Se donner (à priori) une loi de probabilité sur un ensemble Ω, c’est, par définition, se donner
un fonction P définie sur les sous-ensembles de Ω de telle sorte que les conditions (3.1) à (3.4)
soient satisfaite.
Une étude théorique plus poussée montre qu’il ne faut pas, en général, attribuer un pro-
babilité P (E) à tout sous-ensemble E de Ω, mais seulement aux ensembles de Ω appartenant
à une famille dite tribu. Elle montre en outre que la relation (3.4) doit être encore imposée à
toute suite infinie E1 , . . . , Ek , . . . de sous-ensembles de Ω deux à deux disjoints (axiome de
σ-additivité).
Chapitre 4
Modèles d’urne
• successivement
On peut tirer les boules l’une après l’autre
– avec remise
On peut tirer les boules l’une après l’autre, en remettant chaque fois la boule tirée
dans l’urne, avant de procéder au tirage suivant.
– sans remise
On peut tirer les boules l’une après l’autre, sans qu’une boule tirée soit remise dans
l’urne.
• simultanément
On peut tirer les boules simultanément, c’est-à-dire d’un seul coup. De point de vue
probabiliste cette méthode de tirage est identique à celle du tirage successif sans remise.
• exhaustif
On tire toutes les n boules de l’urne et on vide l’urne.
• non exhaustif
On tire p boules des n boules de l’urne, où p < n.
Dans chacun de ces modes de tirage, les résultats obtenus sont de nature différente. Lorsque les
boules sont tirées successivement, nous prenons souvent en compte de l’ordre d’apparition des
boules et les tirages de n boules sont représentés par des listes ou des applications de l’ensemble
des numéros de tirage dans l’ensemble des boules de l’urne. Dans le cas où les boules sont tirées
simultanément, l’ordre d’apparition ne rentre pas en considération et nous représentons les
tirages par des parties ou des combinaisons de l’ensemble des boules.
Le modèle de référence dans ce cas est celui d’une urne contenant n jetons numérotés
dont on extrait p jetons, en conservant le jeton après chaque tirage. Combien de résultats
différents peut-on obtenir lors de cette expérience ? Là encore, on peut fabriquer un arbre
ou recommencer notre raisonnement :
pour le 1er jeton, on a n possibilités ;
pour le 2e jeton, on a n − 1 possibilités ;
... ;
pour le pe jeton, on a n − p + 1 possibilités.
On en déduit que le nombre de résultats possibles est :
n × (n − 1) × (n − 2) × . . . × (n − p + 1) = Apn ;
Si l’on fait n tirages sans remise dans l’urne et que l’on vide l’urne, alors le nombre de
résultats possibles est n!. C’est aussi le nombre de façons de ranger n objets les uns par
rapport aux autres
Ann = Pn = n!
Extrayons simultanément de l’urne p boules. Nous pouvons représenter cette poignée de p boules
de [1, n] par une partie à p éléments de [1, n], c’est-à-dire une combinaison (sans répétition) de
p boules de l’ensemble [1, n]. Si l’on extrait p jetons simultanément (c’est-à-dire sans ordre ni
répétition) de l’urne contenant n jetons numérotés, le nombre de tirages possibles ou nombre
de combinaisons est alors :
n n! n × (n − 1) × . . . × (n − p + 1)
= = = Cnp .
p p!(n − p)! p × (p − 1) × . . . × 1
Synthèse
n!
sans remise Apn = (n−p)!
Ann = Pn = n!
n!
simultané Cnp = (n−p)!p!
—
• Lorsque les boules sont prélevées avec remise, on a affaire à une succession de n
expériences partielles qui sont identiques et indépendantes l’une de l’autre. On obtient
alors
n k
P (Ek ) = p (1 − p)n−k ,
k
où p = N1 /N est la probabilité qu’une boule tirée soit de type A (k = 0, 1, 2, . . . , n). Pour
démontrer ce résultat, notons Fi l’événement qu’une boule de type A est prélevée lors du
ième tirage (i = 1, 2, . . . , n). Une réalisation particulière de Ek est alors donnée par
F1 ∩ F2 ∩ . . . ∩ F̄k+1 ∩ . . . ∩ F¯n ,
• Lorsqu’on effectue un tirage de n boules sans remise, les n expériences partielles dont
est composé ce processus, à savoir les prélèvements des n boules, ne sont ni identiques,
ni indépendantes l’une de l’autre. En effet, la probabilité de prélever une boule de type
A varie constamment au cours du tirage et dépend des résultats déjà obtenus. En fai-
sant appel au théorème de multiplication /P (A ∩ B) = P (A)P (B) - A, B - événements
indépendants ; P (A ∩ B) = P (A).P (B|A) = P (B).P (A|B) - événements dépendants/ on
peut démontrer que la probabilité d’avoir exactement k boules de type A parmi les n
boules tirées est donnée par N1 N2
k n−k
P (Ek ) = N
,
n
N 1 N1 − 1 N1 − 2 N1 − k + 1 N2 N2 − 1 N2 − n + k + 1
. . ... . . ... =
|N N − 1 N −{z2 N − k + 1} |N − k N − k − 1{z N −n+1 }
k n−k
N1 !
. N2 !
(N1 −k)! (N2 −n+k)! AkN1 .An−k
N2
= N!
= n
.
(N −n)!
AN
n!
Choix des emplacements : P̄nk,n−k = k!.(n−k)!
.
AkN .An−k k
CN .CNn−k
Akn
D’ici P (Ek ) = P̄nk,n−k 1
An
N 2
= 1
n
CN
2
comme Cnk = k!
.
N
que la probabilité de cet événement est la même que celle obtenue pour le tirage sans
remise.
N1
N −N1
k n−k n k
N
→ p (1 − p)n−k
n
k
Exemple 4.2.1 (problème de garantie) [3] Un article est produit en masse : on sait
qu’en moyenne 10% des pièces sont défectueuses. L’article est vendu dans des emballages
contenant chacun dix pièces. Le fournisseur garantit qu’il y ait au moins huit pièces non-
défectueuses dans chaque emballage. Quelle est la probabilité que cette garantie puisse
être tenue ?
On peut assimiler cette situation à un tirage sans remise de dix boules d’une urne com-
prenant un nombre infiniment grand de boules dont 90% sont de type A. La probabilité
que la garantie du fournisseur puisse être tenue se calcule alors par
10
X
P (E) = P (E8 ∪ E9 ∪ E10 ) = P (Ek )
k=8
10
X 10
= 0.9k 0.110−k = 0.9298.
k=8
k
Synthèse
Probabilité de prélever k boules du type A parmi les n tirées d’une urne contenant deux sortes
de boules. N1 boules de type A ; N2 de type B ; N1 + N2 = N .
Ek =“prélever k boules du type A parmi les n tirées”
p = NN1
k C n−k
(Nn1 )(n−k
N2
) CN
P (Ek ) Cnk pk (1 − p)n−k 1N
n
2
(n)
N CN
Théorème 5 Dans le cas d’un tirage avec remise de n boules de l’urne U précédente
on a :
n!
P (A(n1 , . . . , nk )) = . pn1 . . . pnk k
n1 ! . . . nk ! 1
de la n-liste qui seront occupés par des boules de couleur 1, n2 emplacements parmi les n − n1
restants qui seront occupés par des boules de couleur 2,. . ., enfin nous choisissons les derniers
emplacements qui seront occupés par des boules de la couleur k et il en reste n−n1 −. . .−nk−1 =
nk .
Nous obtenons au total
nk n!
Cnn1 . Cn−n
n2
. . . . . Cn−n 1 −...−nk−1
=
1
n1 !n2 ! . . . nk !
choix possibles d’emplacement des couleurs.
2. Les places des couleurs étant choisies, nous complétons pour tout entier i compris entre 1 et
k, les places occupées par les boules de couleur i par une ni -liste de boules de couleur i et il y
a Nini ni -listes de [1, N ]. Donc au total N1n1 N2n2 . . . Nknk façons de compléter les emplacements
réservés à chacune des couleurs par des boules.
Nous obtenons finalement
n!
N1n1 N2n2 . . . Nknk .
n1 ! . . . nk !
tirages constitués de n1 boules de la couleur 1, n2 de boules de la couleur 2,... et nk de boules
de la couleur k.
Par conséquent la probabilité de l’événement A(n1 , n2 , . . . , nk ) est égale à :
n!
N n1 N2n2
n1 !n2 !...nk ! 1
. . . Nknk n! N1n1 N2n2 . . . Nknk
P (A(n1 , n2 , . . . , nk )) = = .
Nn n1 ! . . . nk ! Nn
Théorème 6 Dans le cas d’un tirage sans remise de n boules de l’urne U précédente
on a :
CNn11 . CNn22 . . . . CNnkk
P (A(n1 , . . . , nk )) =
CNn
1. Pour le choix des emplacements des couleurs, nous procédons de même que dans le cas d’un
tirage avec remise, et nous obtenons au total
nk n!
Cnn1 . Cn−n
n2
. . . Cn−n 1 −...nk−1
=
1
n1 !n2 ! . . . nk !
répartitions possibles des couleurs dans les emplacements.
2. Les places des couleurs étant choisies, nous complétons pour tout entier i compris entre 1 et
k, les places occupées par les boules de couleur i par une ni -liste distincte de boules de couleur
i et il y a AnNii ni -listes distinctes de [1, Ni ]. Donc au total AnN11 AnN22 . . . AnNkk façons de compléter
les emplacements réservés à chacune des couleurs par des boules distinctes. Nous obtenons donc
au total
n!
AnN11 AnN22 . . . AnNkk
n1 !.n2 !. . . . nk !
tirages constitués de n1 boules de la couleur 1, n2 de boules de la couleur 2,... et nk de boules
de la couleur k.
Par conséquent la probabilité de l’événement A(n1 , n2 , . . . , nk ) est égale à :
n!
An1 An2
n1 !...nk ! N1 N2
. . . AnNkk n! AnN11 AnN22 . . . AnNkk
P (A(n1 , n2 , . . . , nk )) = = .
AnN n1 !.n2 ! . . . nk ! AnN
Ce résultat peut s’écrire sous la forme :
n n n
AN1 AN2 ANk
n1!
1
. n2!
2
. ... nk!
k
CNn11 . CNn22 . . . CNnkk
P (A(n1 , n2 , . . . , nk )) = An
= .
N CNn
n!
Nous obtenons la même probabilité que dans le cas d’un tirage exhaustif.
Tirage simultané
Synthèse
Urne U contenant N boules de k couleurs différentes. Ni P le nombre de boules de la couleur i ;
pi = N proportion de boules de la couleur i dans l’urne ; ki=1 pi = 1.
Ni
P
Soient n1 , n2 , . . . , nk des entiers naturels tels que ki=1 ni = n et A(n1 , . . . , nk ) l’ensemble des
tirages contenant exactement n1 boules de la couleur 1, n2 boules de la couleur 2,. . ., et nk
boules de la couleur k.
Probabilité de l’événement A(n1 , . . . , nk ) :
n n n n n
AN1 AN2 ...ANk CN1 .CN2 ...C nk Nk
choix d’éléments pn1 1 .pn2 2 . . . pnk k 1 2
An
k 1 2
n
CN
N
n n n n n n
CN1 CN2 ...CNk CN1 CN2 ...CNk
P (A(n1 , n2 , . . . , nk )) P̄nn1 ,n2 ,...,nk pn1 1 .pn2 2 . . . pnk k 1 2
n
CN
k 1 2
n
CN
k
On peut s’intéresser au nombre de fois que S s’est réalisé au cours des n expériences.
Un tel schéma est décrit par un modèle d’urne et des tirages avec remise.
Il est évident qu’il existe un nombre k, tel que l’expression Cnk pk q n−k atteint sa valeur maximale.
Notons cette valeur par m. Il est appelé le nombre le plus probable. Le nombre le plus
probable est défini comme le nombre entier dans les limites n . p − q ≤ m ≤ n . p + p.
Exemple 4.2.2.1 Une machine produit une sorte de détails. La probabilité qu’un détail soit
bon est 95%. On choisit 8 détails au hasard. Trouver la probabilité 6 détails parmi les 8 détails
Exemple 4.2.2.2 Les statisticiens ont trouvé que la probabilité de la naissance d’un garçon
est 51% et d’une fille - 49%. Trouver le nombre le plus probable des garçons lors de 4723
naissances.
Solution :
On utilise la formule du nombre le plus probable avec p = 0.51, q = 0.49 et n = 4723. On
obtient :
n.p − q ≤ m ≤ n.p + p
4723 . 0, 51 − 0, 49 ≤ m ≤ 4723 . 0, 51 + 0, 51
2408, 24 ≤ m ≤ 2409, 24
4. Décrivez le tirage simultané. De point de vue probabiliste cette méthode de tirage est
identique à celle du tirage
5. Donnez le nombre des résultats possibles dans le cas de tirages successifs de n objets
parmi n objets avec remise.
6. Donnez le nombre des résultats possibles dans le cas de tirages successifs de p objets
parmi n objets avec remise.
7. Donnez le nombre des résultats possibles dans le cas de tirages successifs de p éléments
parmi n sans remise.
8. Donnez le nombre des résultats possibles dans le cas de tirages successifs de n éléments
parmi n sans remise.
9. Donnez le nombre des résultats possibles dans le cas de tirage simultané de p éléments
parmi n.
Chapitre 5
Variables aléatoires
5.1 Introduction
L’événement aléatoire est une caractéristique qualitative de l’expérience aléatoire. Souvent il est
utile de représenter le résultat d’une expérience aléatoire par une caractéristique quantitative,
c.-a-d. par une valeur - une variable réelle ou complexe. Comme l’événement aléatoire, la valeur
de la variable est aussi inconnue en avance. Elle peut différer en conséquence des différentes
issues lors de la répétition de l’expérience. [12, 14] La notion mathématique qui représente
efficacement d’une façon quantitative une expérience aléatoire concrète est celle de variable
aléatoire - variable, dont les valeurs observées sont régies par le hasard. Ainsi la somme des
deux dés, le pourcentage de réponses ”oui” à une question posée dans un sondage ou le nombre
d’enfants dans un couple sont des exemples de variables aléatoires.
Remarque. On se limitera ici au cas des variables aléatoires réelles.
X : Ω −→ R, ω −→ x, avec x = X(ω),
c.-à-d. une application qui à chaque élément de Ω (à chaque résultat d’une expérience
aléatoire) associe une donnée numérique réelle.
X(ω) Ω.
On dit que x est la valeur prise par la v.a. X lorsque le résultat de l’expérience aléatoire
est ω.
Exemple 5.1.1 Sexe par âge croissant des enfants. On considère le sexe par âge croissant
des enfants d’une famille avec 2 enfants. L’espace fondamental est constitué des événements
élémentaires suivant : sans choix, ordonné, avec répétition =⇒ |Ω| = Ā22 = 22 = 4
Ω = {GG, GF, F G, F F }.
Notations. On désigne généralement par X (ou Y , ou Z,. . .) une variable aléatoire et par x
(ou y, ou z,. . .) une valeur déterminée de celle-ci.
Définition 36 Une variable aléatoire est dite discrète si elle ne prend que des valeurs
discontinues dans un intervalle donné (borné ou non borné).
L’ensemble des nombres entiers est discret. En règle générale, toutes les variables qui
résultent d’un dénombrement ou d’une numération sont de type discrètes.
La variable aléatoire discrète X = ”nombre de filles dans la famille” de l’exemple 5.1.1 prend
des valeurs discontinues dans un intervalle borné, alors c’est une variable aléatoire discrète.
Exemple 5.2.1 On jette une pièce de monnaie. On définit la variable aléatoire X par le nombre
de jets successifs nécessaires pour obtenir le côté pile pour la première fois :
L’ensemble V = {x} des valeurs possibles est l’ensemble des entiers positifs :
V = {x} = {1, 2, 3, . . .}.
C’est un ensemble infini dénombrable, un intervalle non borné. La variable aléatoire X = ”le
nombre de jets successifs nécessaires pour obtenir le côté pile pour la première fois” est une
variable aléatoire discrète.
Si nous notons V l’ensemble des valeurs prises par X, la v.a. X est définie par :
X : Ω −→ V, ω −→ x.
La loi de probabilité associe à chacune des valeurs possibles de la variable discrète X la pro-
babilité de l’événement correspondant. La loi de probabilité d’une variable aléatoire discrète
est entièrement déterminée par les probabilités pi des événements {X = xi } et xi parcourant
l’univers image V = X(Ω).
Exemple 5.1.1 Sexe par âge croissant des enfants d’une famille - suite.
Le cardinal (le nombre des éléments de l’ensemble fondamental) est |Ω| = Ā22 = 22 = 4. Si l’on
fait l’hypothèse que la probabilité d’avoir un garçon est égale à celle d’avoir une fille (1/2),
alors la distribution de probabilité ou loi de probabilité du nombre de filles dans une
fratrie de deux enfants est :
Exemple 5.2.1 Nombre de jets successifs nécessaires pour obtenir le côté pile pour la
première fois - suite. L’ensemble fondamental est Ω = {P, (F, P ), (F, F, P ), . . .}. L’ensemble
image {x} des valeurs possibles est l’ensemble des entiers positifs : {x} = {1, 2, 3, . . .}.
Pour que x coups soient nécessaires, il faut obtenir le côté face aux (x − 1) premiers coups et
le côté pile au x−ème, d’où :
x−1
1 1 1
P (X = x) = × = x.
2 2 2
On obtient la loi de probabilité :
Les valeurs de la fonction F (X) sont des sommes cumulées des valeurs de la fonction p(x).
Si V = {x1 , x2 , . . . , xn }, la fonction de répartition de la distribution de probabilité définie par
l’ensemble des couples {(xi , pi ), i = 1, n} est définie par :
0 x ≤ x1
F (x) = P (X < x) = p1 + p2 + . . . + pi xi < x ≤ xi+1
p1 + p2 + . . . + pn x > xn
X 0 1 2
P 0.6 0.3 0.1
On obtient finalement :
0, x≤0
0.6, 0<x≤1
F (x) =
0.9, 1<x≤2
1, x>2
Le graphe de la fonction F (x) est
X -2 1 2 4
P 0.2 0.4 0.3 0.1
Reprenons les deux exemples précédents : 5.1.1 Sexe par âge. et 5.2.1. Lance d’une mon-
naie.
Pour l’exemple 5.1.1 La densité de probabilité et la fonction de répartition de la variable
aléatoire définie comme le nombre de filles dans une famille de deux enfants, est la suivante :
Nombre de filles 0 1 2
P (X = xi ) 1/4 1/2 1/4
FX = P (X < x) 0 1/4 3/4 1
Pour l’exemple 5.2.1 La fonction de répartition de la variable aléatoire définie comme le nombre
de jets d’une pièce de monnaie nécessaires pour obtenir le côté pile pour la première fois, est
la suivante :
Soit X la variable aléatoire donnant “le nombre de T.V. vendus au cours d’une journée”. Pour
la fonction de distribution de probabilité et la fonction de répartition on a :
Valeur de X = xi 0 1 2 3 4 5 6
P (X = xi ) 0.02 0.08 0.20 0.25 0.30 0.12 0.03
F (xi ) = P (X < xi ) 0 0.02 0.10 0.30 0.55 0.85 0.97 1
P (X ≥ 2) = P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) + P (X = 6)
= 0.20 + 0.25 + 0.30 + 0.12 + 0.03 = 0.90
P (X > 2) = P (X = 3) + P (X = 4) + P (X = 5) + P (X = 6)
= 0.25 + 0.30 + 0.12 + 0.03 = 0.70
Soit X une variable aléatoire discrète dont la loi de probabilité est définie par :
P (X = x) si x ∈ V
p(x) = px =
0 6 V
si x =
• Mode xm
Les distributions discrètes classiques présentent en général un seul mode (parfois deux
modes successifs équiprobables) et sont dites unimodale, par opposition aux distributions à
plusieurs ”bosses” dites plurimodales.
Dans l’exemple 5.1.1 Sexe par âge., le mode de X est la valeur 1 ; dans l’exemple 5.2.1. Lance
d’une monnaie., le mode de X est la valeur 0.
Nombre de filles 0 1 2
P (X = xi ) 1/4 1/2 1/4
Exemple 5.1.1. Sexe par âge - suite. Si l’on reprend l’exemple d’une fratrie de deux en-
X 0 1 2
fants, l’espérance de la variable aléatoire ”nombre de filles” est :
P (X = xi ) 1/4 1/2 1/4
3
X
E(X) = xi pi = 0 ∗ 1/4 + 1 ∗ 1/2 + 2 ∗ 1/4 = 1, d’où E(X) = 1
i=1
Si l’on observe un nombre suffisant de fratries de 2 enfants, on attend en moyenne une fille par
fratrie.
X 0 1 2 3 4 5 6
P 0.02 0.08 0.20 0.25 0.30 0.12 0.03
Bien sûr, le vendeur ne vend pas 3.21 TV, mais cela veut dire que sur une longue période, il
peut considéré que la vente quotidienne est de 3.21 TV.
Si le vendeur réalise un profit de 500 e par TV vendu, on peut déterminer le profit qu’il peut
espérer réaliser quotidiennement sur longue période.
On a que E(X) = 3.21.
Le profit quotidien réalisé grâce à la vente de TV est une variable aléatoire S = 500X.
pe1 E(a) = a
l’espérance mathématique d’une constante est la constante elle - même.
Comme la constante obtient une valeur unique de probabilité p = 1,
E(a) = a . 1 = a.
pe2 E(aX) = aE(X)
L’espérance mathématique du produit d’une constante a et une v.a. X.
est le produit de a et l’espérance mathématique de X
Démonstration. Comme aX a la distribution
aX ax1 ax2 . . . axn
P p1 p2 . . . pn
L’espérance mathématique est :
E(aX) = ax1 p1 + ax2 p2 + . . . + axn pn = a(x1 p1 + x2 p2 + . . . xn pn ) = aE(X).
pe3 E(X ± Y) = E(X) ± E(Y)
L’espérance mathématique de la somme/différence de deux v.a. est
la somme/différence des espérances mathématiques des deux v.a.
X n Xn n
X
E(X ± Y ) = (xi + yi )pi = xi pi + yi pi = E(X) + E(Y )
i=1 i=1 i=1
pe4 E(aX ± b) = aE(X) ± b
pe5 E(XY) = E(X)E(Y), si X et Y sont indépendantes
X n
m X m X
X n
Démonstration : E(X . Y ) = xi yj Pij = xi yj Pi Pj′ =
i=1 j=1 i=1 j=1
m
X n
X
x i Pi yj Pj′ = E(X) . E(Y ).
i=1 j=1
X 1 2 Y 0 1 2
P 0.4 0.6 P′ 0.2 0.3 0.5
Trouver E(2X + 3Y ).
Solution :
On utilise les propriétés pe2 et pe3 :
On a
E(X) = 1 . 0.4 + 2 . 0.6 = 1.6 et E(Y ) = 0 . 0.2 + 1 . 0.3 + 2 . 0.5 = 1.3.
On obtient
E(2X + 3Y ) = 2 . 1.6 + 3 . 1.3 = 3.2 + 3.9 = 7.1
• Moments d’ordre k
m1 = E(X).
L’éspérance mathématique ne caractérise pas d’une façon complète une v.a. Par exemple les
v.a. ci-dessous sont d’espérances mathématiques identiques, mais de distributions différentes.
L’espérance mathématique ne donne pas d’information pour l’écart de la v.a. Il est nécessaire
d’une estimation de la tendance de la v.a. a se disperser.
Par définition une variance est toujours positive - c’est une somme de termes positifs (des
carrés). Une valeur élevée de la variance signifie que les valeurs éloignées de l’espérance ont
une forte probabilité. On dit que la variance est un paramètre de dispersion ; autrement dit, la
variance est une estimation de la tendance de la variable aléatoire à s’écarter de la moyenne, à
se disperser. Une valeur nulle de la variance signifie qu’il n’existe qu’une seule valeur observable
de valeur égale à l’espérance (dispersion minimum).
ce qui reflète bien les différents types de dispersion (la variable Z à forte dispersion a une
variance nettement plus élevée que la variable X à faible dispersion)
Un défaut de la variance est de ne pas mesurer l’écart dans les mêmes unités que la variable :
si les xi sont des cm la variance sera en cm2 . C’est pourquoi on introduit une autre estimation
de l’écart qui est la racine carrée de la variance ou écart-type.
• Ecart-type
Un écart-type est donc un réel positif ; il s’agit d’un indice de dispersion qui présente
l’avantage d’avoir la même unité que les observables.
Quelles que soient les situations, pour calculer un écart-type, il faudra toujours déterminer
la variance puis sa racine.
L’écart-type indique dans quelle mesure les valeurs prises par la variable aléatoire ont tendance
• Le coefficient de variation
La moyenne et l’écart-type s’exprimant dans la même unité, il convient de calculer le coefficient
de variation. Le coefficient de variation exprime l’écart-type en pourcentage de la moyenne.
P 2 2
Ou bien : On peut
P 2 écrire : V (X)
P = i (xi − 2µ
P X xi + µX )pi .
2
P = i (xi pP
D’où V (X) i ) − 2µX i (xi pi ) + µX i piP
.
Comme i pi = 1 et i pi xi = µX , donc V (X) = i (x2i pi ) − µ2X .
D’où la relation (théorème de Guldin) :
V (X) = E(X 2 ) − E(X)2 = m2 − m21 .
Cette relation est très commode dans le calcul de la variance.
/V (X) = SU M P RODU CT (x1 : xn ; x1 : xn ; p1 : pn )
−SU M P RODU CT (xn : xn ; p1 : pn )∧ 2/
• Propriétés de la variance. Si a est un nombre réel (une constante) et X et Y sont
variables aléatoires :
pv1. V ar(a) = 0
xi 0 1 2 3 4 5 6
pi 0.02 0.08 0.20 0.25 0.30 0.12 0.03 E(X) = 3.21
x2i 0 1 4 9 16 25 36
pi x2i 0.00 0.08 0.80 2.25 4.80 3.00 1.08 E(X 2 ) = 12.01
Définition P
45 On appelle µk moment central d’ordre k d’une variable aléatoire X
la moyenne pi (xi − E(X))k des k e puissances de leurs valeurs centrées xi − E(X) :
µk = E(X − E(X))k .
Le premier moment central est toujours nul. La variance de X est le moment central d’ordre
2 de X.
faut définir un indicateur de leur ” liaison ” qui complète les paramètres qui les caractérisent
chacune séparément (espérance mathématique et variance).
cov(X, Y )
R(X, Y ) .
σ(X)σ(Y )
Il existe d’autres transformations de variables aléatoires qui conduisent à des valeurs de pa-
ramètres particulières.
• Variable centrée
Définition 47 Une variable aléatoire X est dite centrée si E(X) = 0. Si elle est
d’espérance mathématique nulle.
X x1 x2 ... xm
P (X) p1 p2 ... pm
et k est une constante, alors k . X est une variable aléatoire nouvelle de loi de probabilité :
Y y1 y2 ... yn
P (Y ) p′1 p′2 ... p′n
Les variables aléatoires X et Y sont indépendantes, si pour chaque paire de valeurs possibles
xi et yj l’égalité
P (X = xi , Y = yj ) = P (X = xi ) . P (Y = yj ) = pi . p′j
est satisfaite.
Définition 50 On appelle somme de deux v.a. X et Y une nouvelle v.a., dont les valeurs
sont xi + yj , i = 1, 2, . . . , m, j = 1, 2, . . . , n et les probabilités correspondantes sont
Pij = P (X = xi , Y = yj ).
Si X et Y sont indépendantes, on a Pij = pi . p′j .
Définition 51 Étant donnée une variable aléatoire de loi {xi , pi }, on appelle fonction
caractéristique de X la fonction
X
ΦX (t) = pi eitxi .
i
Cette dernière est plutôt recommandée lorsque les xi sont des nombres entiers ; dans ce cas
c’est un polynôme, ou, si on fait tendre le nombre des xi vers l’infini, une fonction analytique
de z. On bénéficie alors de toute la richesse des propriétés mathématiques des polynômes
ou des fonctions d’une variable complexe. Rien n’interdit dans le principe de la prendre en
considération même lorsque les xi sont non entiers, mais dans un tel cas elle est beaucoup
moins commode et on lui préférera alors la fonction caractéristique. De toute façon, fonction
caractéristique et fonction génératrice sont liées par la relation
ΦX (t) = GX (eit ).
Pour une variable aléatoire X à valeurs entières, on obtient les probabilités de chaque valeur
(c’est-à-dire la loi de la variable aléatoire X) en développant la fonction génératrice GX (z) en
série entière, ou en série de Laurent s’il y a des valeurs négatives.
On peut aussi déduire directement de la fonction génératrice d’autres grandeurs liées à la
variable aléatoire telles que la moyenne et la variance. Ainsi, la moyenne n’est autre que G′X (1)
P P P
ce qui pour z = 1 donne G′X (1) = i i(i − 1)pi = i i2 pi − i ipi = E(X 2 ) − E(X).
Des expressions analogues pour la moyenne ou la variance peuvent être obtenues à partir des
fonctions caractéristiques. Ces expressions seront utilisées lorsque la variable aléatoire n’est pas
à valeurs entières.
4. La loi de probabilité d’une variable aléatoire discrète peut être représenté graphiquement
par un diagramme en . . ..
Chapitre 6
La plupart des phénomènes statistiques peuvent être décrits par un petit nombre de modèles
probabilistes ou lois de probabilité. Naturellement, lorsque cette représentation est possible,
elle fournit une description beaucoup plus riche du phénomène que le simple calcul des ca-
ractéristiques de tendance centrale et de dispersion. Elle permet notamment de calculer la
probabilité de certains événements et, par conséquent, de préciser dans une certaine mesure la
représentation que l’on peut se faire de l’avenir.
Il convient donc de connaı̂tre les modèles probabilistes les plus courants de façon à pou-
voir rechercher dans ce catalogue celui qui est susceptible de convenir à la description d’un
phénomène aléatoire déterminé.
Dans tous les cas, le processus est le suivant :
Définition 53 Soit une expérience aléatoire E à la quelle est associée une variable
aléatoire X dont l’ensemble des observables contient un nombre fini de valeurs réelles :
X(Ω) = {x1 , x2 , . . . , xn }.
La loi de probabilité de X est dite uniforme si elle est définie par
1
P (X = xi ) = , ∀i ∈ {1, 2, . . . , n}.
n
n n
X 1X
µ = E(X) = xi P (X = xi ) = xi
i=1
n i=1
n n
X 1X 2
E(X 2 ) = x2i P (X = xi ) = x
i=1
n i=1 i
σ = V ar(X) = E(X 2 ) − E(X)2 .
2
Fonction de répartition :
Paramètres :
n n
X 1X (n + 1) 1
µ = E(X) = iP (X = i) = i=
i=1
n i=1 2
n n
2
X
2 1 X 2 (n + 1)(2n + 1) 2
E(X ) = i P (X = i) = i =
i=1
n i=1 6
(n + 1)(n − 1) n2 − 1
σ 2 = V ar(X) = E(X 2 ) − E(X)2 = = .
12 12
Exemple 6.1.2.1 La distribution des chiffres obtenus au lancer de dé (si ce dernier est non
pipé) suit une loi uniforme /le cas particulier - l’ensemble des observables constitué des n
premiers entiers/ dont la loi de probabilité est la suivante :
X 1 2 3 4 5 6
1 1 1 1 1 1
P (X = xi ) 6 6 6 6 6 6
Vérification
n 6
1X 1X 1 21 7
E(X) = xi = i = (1 + 2 + 3 + 4 + 5 + 6) = = = 3.5
n i=1 6 i=1 6 6 2
n 6
2 1 X 2 1 X 2 1 + 4 + 9 + 16 + 25 + 36 91
E(X ) = xi = i = =
n i=1 6 i=1 6 6
91 72 2 × 91 − 3 × 49 182 − 147
V (X) = E(X 2 ) − E(X)2 = − 2 = =
6 2 12 12
35
= = 2.92.
12
2
La somme des n premiers nombres entiers est égale à n(n + 1)/2
2
La somme des carrée des n premiers nombres entiers est égale à n(n + 1)(2n + 1)/6
(voir https ://www.les-suites.fr/somme-des-n-premiers-carres.htm)
X:Ω→R
X(Ω) = {0, 1}.
Fonction de répartition :
0 si x ≤ 0
F (x) = P (X < x) = q si 0 < x ≤ 1
1 si x > 1
Paramètres descriptifs :
µ = p; σ 2 = pq.
Le mode est 1 si p > 12 , et 0 si p < 21 . Il n’y a pas de mode si p = 12 . Si p = 12 , on obtient la loi
uniforme sur [0, 1] puisque alors P (X = 0) = P (X = 1) = 21 .
Démonstration
1
X
µ = E(X) = xi P (X = xi ) = 0 . q + 1 . p = p
i=0
1
X
2
σ = V ar(X) = P (X = xi )(xi − µ)2
i=0
1
X
= P (X = xi )(xi − p)2 = (1 − p)(−p)2 + p(1 − p)2 = p(1 − p) = pq.
i=0
Exemples typiques : Le lancer d’une pièce de monnaie ; l’extraction d’une boule dans une
urne ne contenant que deux types de boules ; la réponse à une question d’un vrai ou faux ;...
Définition 57 On dit qu’une v.a. X à valeurs dans N, suit une loi binomiale si sa loi de
probabilité est donnée par :
avec k ∈ {0, 1, 2, . . . , n}, où n est entier donné et où p est un réel tel que 0 < p < 1.
Notation : nous noterons : X ∼ B(n, p) pour indiquer que la variable aléatoire X suit une
loi binomiale de paramètres n et p.
Exemple 6.3.1 On lance une pièce de monnaie 60 fois de suite. Si X est la variable aléatoire
qui représente le nombre de “piles” que l’on peut obtenir en cette expérience aléatoire, X suit
une loi B(60, 12 ). Quelle est la probabilité d’obtenir 25 pile ?
Analyse : n = 60, k = 25, p = 12 .
25 35
k k n−k 25 1 1
P (X = k) = Cn p (1 − p) = P (X = 25) = C60 × ×
2 2
60! 1 1
= = 0, 045029465
25! 35! 225 235
/BIN OM DIST (k; n; p; 0)/
Fonction de répartition
0
P x≤0
k i i n−i
F (x) = i=0 Cn p q k <x≤k+1
1 x>n
/BIN OM DIST (k; n; p; 1)/
Paramètres
µ = np, σ 2 = npq.
Démonstration
L’espérance mathématique
La variable binomiale X, correspondant à n tirages, peut être considérée comme la somme de
n variables de Bernoulli indépendantes :
n
X
X = X1 + X2 + . . . + Xn = Xi .
i=1
Variance
La variance de la variable binomiale X est
n
!
X
V (X) = V (X1 + X2 + . . . + Xn ) = V Xi
i=1
n
X
= V (X1 ) + V (X2 ) + . . . + V (Xn ) = V (Xi ).
i=1
En effet, en vertu des propriétés de la variance, la variance d’une somme de variables aléatoires
indépendantes est égale à la somme des variances.
La variance de la variable de Bernoulli Xi définie pour chacun des n tirages, est :
V (Xi ) = pq.
Par suite :
n
X
V (X) = V (Xi ) = npq.
i=1
√
L’écart-type de la distribution binomiale est égal à npq.
En résumé, la loi binomiale dépend des 2 paramètres :
P {X = x} = Cnx px q n−x .
Forme
La distribution est de type unimodal et admet pour mode l’entier, en général unique, située
dans l’intervalle [np − q, np + p] ou exceptionnellement deux modes successifs, équiprobables,
bornes de l’intervalle ci-dessus lorsque np + p a une valeur entière.
Démonstration [12] : Le mode d’une distribution de probabilité est la valeur de la variable aléatoire
pour laquelle la probabilité est la plus élevée : c’est la valeur la plus probable.
Par suite, le mode de la loi binômiale est l’entier x tel que :
De (6.4) :
On obtient :
np − q < x < np + p.
Si np − q est entier :
np − q = i,
np + p = np − q + (p + q) = i + 1,
Formes de la distribution
1
Si n+1 < p < 12 , forme en
cloche dissymétrique, le mode
2. étant déplacé vers la gauche.
Éventuellement, deux modes suc-
cessifs équiprobables.
1
Si p ≤ n+1 , forme en L ; mode =
3. 0, éventuellement deux modes 0
et 1.
n
Si p ≥ n+1 , forme en J ;
5. Éventuellement, deux modes en
n − 1 et n.
Remarques :
1. L’étendue de la deuxième distribution est cinq fois plus grande que celle de la première,
mais son écart-type n’est que deux, fois plus grand. Cela tient à ce que les valeurs k = 0,
k = 1, d’une part, k = 15, k = 16, . . ., k = 25 d’autre part, sont affectées de probabilités
très faibles, et qu’il y a plus de 99 chances sur 100 que 2 < k < 14.
C’est ce que montre le graphique, où les valeurs des probabilités trop faibles n’ont pu être
représentées.
2. La distribution est très asymétrique dans le cas n = 5, cela est du à ce que p est nettement
différent de q. Elle est beaucoup plus symétrique dans le cas où n = 25. Elle le serait encore
beaucoup plus pour n = 100.
Le nom de la loi binômiale provient du fait que P (X = k) est donné par le terme de rang
k du développement, suivant les puissances croissantes de p, du binôme de Newton : (p + q)n .
La loi binômiale rend compte de tous les phénomènes, répétés n fois de façon indépendante,
pouvant prendre deux états (et deux seulement) : succès ou échec, oui ou non, état 0 ou état
1,...
Chacune de ces n expériences est appelée “tirage de Bernoulli”. Une variable aléatoire
binômiale X prendra pour valeurs le nombre k de succès en n expériences.
Seul le nombre de succès est pris en compte, sans que l’ordre où ils se réalisent intervienne.
La loi binômiale est la loi “théorique” la plus fréquente. Son utilisation pratique est, ce-
pendant, souvent limitée : on ne peut obtenir un résultat “rapide” que dans certains cas. Ceci
explique que, dans des conditions, la loi binômiale peut être approchée par les lois de Poisson
ou de Gauss, d’un usage plus commode.
Deux cas sont à distinguer, selon qu’on a affaire à une urne contenant un petit nombre ou
un très grand nombre de boules.
• Urne contenant un très grand nombre de boules (urne infinie) : tirage sans remise autorisé
Dans ces conditions, il n’est plus nécessaire de remettre les boules tirées dans l’urne, car
la probabilité de succès à chaque tirage n’est pas sensiblement modifiée par le résultat
des tirages antérieurs.
L’exemple donné précédemment est assimilable à une urne infinie. Il en est de même la
plupart du temps, quand on effectue des sondages.
Dans le cas de l’urne infinie, il est donc possible d’extraire à la fois les n boules.
Px+1 n−x p
= . .
Px x+1 q
Ainsi :
P4 5−316 21 1 1
= = = d’où P4 = P3
P3 3+165 45 10 10
P3 5−216 31 1
= = = d’où P2 = 5P3
P2 2+165 35 5
1. Soit X la variable aléatoire qui représente le nombre de “piles” que l’on peut obtenir en
jetant 10 fois une pièce régulière, X ∼ B(10, 21 ). On a : n = 10, k = {0, 1 . . . , 10}
k 0 1 2 3 4 5 6 7 8 9 10
P (X = k) 1 10 45 120 210 252 210 120 45 10 1
k
1 k 1 n−k 1024 1024 1024 1024 1024 1024 1024 1024 1024 1024 1024
= C10 2 2
Si X suit une loi B(10, 12 ) = B(n, p), on a
1
E(X) = np = 10 = 5
2
Vérification :
n
X 10
X
E(X) = pi xi = kCnk pk q n−k
i=1 k=0
1
= (0 + 10 + 90 + 360 + 840 + 1260 + 1260 + 840 + 360 + 90 + 10)
1024
5120
= =5
1024
11
V ar(X) = npq = 10 = 2.5
22
Vérification :
V ar(X) = E(X 2 ) − E(X)2
10
X
2
E(X ) = k 2 Cnk pk q n−k
k=0
1
= (0 + 10 + 180 + 1080 + 3360 + 6300 + 7560 + 5880 + 2880 + 910 + 100)
1024
28160
= = 27.5
1024
=⇒ V ar(X) = E(X 2 ) − E(X)2 = 27.5 − 52 = 2.5
2. Une urne contient des boules rouges en proportion 1/4. On tire successivement 25 boules
en remettant chaque fois la boule tirée. Si Y est le nombre de boules rouges que l’on peut
obtenir, Y suit un loi B(25, 14 ) (tirage non exhaustif ou avec remise).
Si Y suit une loi B(25, 41 ), on a
1 25 13 75
E(Y ) = n p = 25 = , V ar(X) = npq = 25 = .
4 4 44 16
Lecture Notes in Computer Science and Technologies No 2, 2016
96 Vera Angelova
6.3.1 Stabilité
P ((Sn + Sm ) = k) =
= P ((Sn = 0 ∩ Sm = k) ∪ (Sn = 1 ∩ Sm = k − 1) ∪ . . . ∪ (Sn = k ∩ Sm = 0))
Xk
= P (Sn = i ∩ Sm = k − i) les événements étant incompatibles 2 à 2
i=0
Xk
= P (Sn = i)P (Sm = k − i) car événements indépendants
i=0
Xk
= Cni pi q n−i Cm
k−i k−i m−k+i
p q
i=0
Xk
= Cni Cm
k−i k n+m−k
p q
i=0
k n+m−k
= Cn0 Cm
k
+ Cn1 Cmk−1
+ . . . + Cnk Cm
0
p q
k
= Cn+m pk q n+m−k .
Définition 58 Supposons que l’on a Np objets parmi N d’un certain type. On prélève
un échantillon de n objets (sans remise). La loi hypergéométrique donne la probabilité
que k objets parmi les n soient du type Np . La loi de probabilité est donnée par :
CNk p CNn−k
q
P (X = k) = , k ∈ {0, . . . , min(n, Np )}.
CNn
Une telle distribution correspond à un modèle d’urne et des tirages sans remise (tirages
exhaustifs). Dans ce cas p et q ne restent pas constants.
Notation : X ∼ H(N, n, p)
µ = E(X) = np, (comme dans le cas de la loi binômiale)
Paramètres :
V ar(X) = npq N −n
N −1
.
Exemple 6.4.1 Soit une urne contenant 10 boules dont 2 blanches B et 8 rouges R. La loi
hypergéométrique correspondant au tirage d’un échantillon dans cette urne a pour paramètres :
N = 10, l’effectif de la population ;
n, la taille de l’échantillon ;
p = 0.2, la proportion de boules blanches (composition de l’urne).
Les différents événements possibles s’obtiennent, comme dans le cas de la loi binomiale,
suivant un schéma en arbre. Il faut toutefois prendre garde que, à partir du 3e tirage, les boules
blanches peuvent être épuisées : la variable hypergéométrique X=”nombre de boules rouges
tirées” ne peut prendre que les valeurs 0, 1 ou 2.
On obtient, pour les trois premiers tirages, les lois de probabilité les suivantes :
Au 3e tirage, par exemple, la variable X prend la valeur 2 pour chacun des événements
élémentaires :
B 1 B 2 R 3 , B 1 R 2 B 3 , R1 B 2 B 3 ,
D’une façon générale, au n-ème tirage, la probabilité pour que la variable X prenne la valeur
x est :
CNx p CNn−x
q
Px = P {X = x} = .
CNn
Représentons en effet chacune des N boules de l’urne par un nombre :
1, 2, . . . , Np Np + 1, . . . , N
| {z } | {z }
boules blanches, boules rouges .
Si l’échantillon est tiré au hasard, chacune des CNn , combinaisons que l’on peut faire en choisis-
sant n boules parmi les N contenues dans l’urne sont équiprobables : ce sont les éventualités
possibles.
Parmi celles-ci. dénombrons celles qui correspondent à la présence de x boules blanches et
n − x boules rouges. Il y a CNx p façons de choisir x boules blanches parmi les Np boules blanches
contenues dans l’urne. A chacune de ces combinaisons correspondent CNn−x q
façons de prélever
les n − x boules rouges complémentaires parmi les Nq boules rouges contenues dans l’urne, y a
donc, au total :
CNx p CNn−x
q
x ≤ min(n, Np ).
n − x ≤ min(n, Nq ),
d’où :
x ≥ max(0, n − Nq ).
On a donc, en définitive :
max(0, n − Nq ) ≤ x ≤ min(n, Np ).
En résumé, la variable hypergéométrique X est une variable aléatoire discrète qui dépend des
3 paramètres :
N , effectif de la population,
p, proportion primitive de boules blanches dans celle-ci,
n, nombre de tirages successifs (effectif de l’échantillon).
Les valeurs possibles de cette variable sont :
max(0, n − Nq ) ≤ x ≤ min(n, Np )
0 ≤ x ≤ n.
La loi hypergéométrique est utilisée pour modéliser un ”tirage sans remise“. C’est le cas de
pratiquement tous les sondages (notamment lorsqu’on veut étudier la conformité d’un lot de
produits, etc. . .).
X ∼ H(10, 4, 6/10)
6 C60 C44 C61 C43 C62 C42 C63 C41 C64 C40
p= 10
, n = 4, N = 10, Np = 6, Nq = 4, p0 = 4 ,
C10
p1 = 4 ,
C10
p2 = 4 ,
C10
p3 = 4 ,
C10
p4 = 4 .
C10
xi 0 1 2 3 4
1 24 90 80 15
pi 210 210 210 210 210
6
E(X) = n p = 4 10 = 2.4; V ar(X) = npq N −n
N −1
6 4 10−4
= 4 10 10 10−1
= 0.64.
Exemple 6.4.3 Un électricien achète des composants par paquets de 10. Sa technique de
contrôle est de n’examiner que trois des composants, tirés au hasard dans le paquet et de
n’acheter le lot des 10 paquets que si les trois composants examinés sont sans défaut. Si 5 pour-
cents des paquets contiennent deux composants à malfaçon, si 25 pour-cents n’en contiennent
qu’un et si 70 pour-cents n’en contiennent aucun, quelle est la probabilité que l’électricien
achète un paquet.
Approximation : si le nombre de tirages total n est petit devant la taille de l’urne N alors
les tirages sans remise s’apparentent à des tirages avec remise : en effet, ce qui différencie
principalement ces deux sortes de tirages c’est qu’en faisant des tirages sans remise,
Maintenant, si le nombre de boules de l’urne est vraiment grand par rapport à n : le fait
d’enlever les boules tirées ne va pas modifier réellement l’urne, et même si on remet les boules,
il n’y a quasiment aucune chance de tirer deux fois la même !
Le fait que quand l’effectif N de la population devient très grand, n et p demeurant fixes,
la loi hypergéométrique tend vers la loi binômiale, permit d’appliquer la loi binômiale aux
sondages et aux procédures d’estimation sur échantillon. En effet, la plupart des échantillons
sont, en réalité, prélevés par tirage exhaustif, de façon à ce qu’un même individu ne puisse être
désigné deux fois.
En pratique : si N > 10n, (le taux de sondage n/N est inférieur à 10 %) la loi hy-
pergéométrique H(N ; n; p) est approchée par la loi binômiale B(n; p) (puisque p = Np /N est
la proportion quasi-constante des individus du type considéré).
CNx p CNn−x
q
→ Cnx px q n−x .
CNn
Ce résultat mathématique peut être utilisé de la manière suivante :
La variable X représente le nombre d’individus d’un type donné que l’on peut trouver dans un
échantillon de taille n extrait d’une population de taille N (le lac) contenant Np individus du
type considéré. L’échantillon peut être obtenu par n tirages successifs sans remise. Si la taille
de la population est très grande devant celle de l’individu (n << N ), de manière à ce que
l’on puisse considérer qu’à chaque tirage la probabilité d’obtenir un individu du type considéré
demeure pratiquement égale à celle du premier tirage ( NNp ), la loi de X peut être assimilée à une
loi binômiale B(n, p = NNp ). On remarquera, en particulier, que cette approximation conserve
l’espérance :
Np
E(X) = n = np
N
et, pratiquement, la variance :
Np Np 1 − Nn
V ar(X) = n 1− ≈ n p q,
N N 1 − N1
n
1−
car 1− N1 ≈ 1.
N
B. Lois infinies
soit encore
P (X = n) = pn = pq n−1 , n = 1, 2, 3, . . . .
6.5.1 Paramètres
1 q
µ = E(X) = ; σ 2 = V ar(X) = .
p p2
Démonstration
Espérance
∞
X ∞
X ∞
X
n−1
E(X) = nP (X = n) = npq =p nq n−1 .
n=1 n=1 n=1
P∞ P
n=1 nq
n−1
est la dérivée par rapport à q de ∞ n 1
n=0 q = 1−q .
P∞ 1 1
P ∞
Donc n=1 nq n−1 = (1−q) 2 = p2 et E(X) = p n=1 nq
n−1
= p1 .
Variance.
1
V ar(X) = E(X 2 ) − (E(X))2 = E(X 2 ) −
p2
∞
X 1
E(X 2 ) = E(X(X − 1)) + E(X) = n(n − 1)pq n−1 +
n=1
p
∞
X ∞
X ∞
X
n−1 n−1
n(n − 1)pq = n(n − 1)pq = pq n(n − 1)q n−2
n=1 n=2 n=2
P∞ P∞ 1
n=2 n(n − 1)q n−2 est la dérivée seconde de n=0 qn = 1−q
par rapport à q.
∞
X 2 2
n(n − 1)q n−2 = 3
= 3
n=2
(1 − q) p
q 1 2 1
E(X 2 ) = 22
+ = 2−
p p p p
1 1 q
V ar(X) = 2 − = 2 .
p p p
Exemple 6.5.1 Un béton globalement conforme à une certaine norme est échantillonné. Chaque
éprouvette a une probabilité 0.9 de réussir le test de conformité. Quelle est la distribution du
nombre d’éprouvettes devant être testées avant d’en observer une qui ne réussit pas le test ?
(Note : ici le ≪succès≫ est ≪échouer le test≫ et le p correspondant est 0.1).
P (X = n) = p . q n−1
P (X = 1) = p . q 1−1 = p . q 0 = 0.1
P (X = 2) = p . q 1 = 0.1 ∗ 0.9 = 0.09
P (X = 3) = 0.1 ∗ 0.92 = 0.081
...
Quel est le nombre moyen d’éprouvettes que l’on devra tester avant d’en trouver une qui
échoue le test ?
1 1
E(X) = = = 10
p 0.1
La formule de récurrence P (X = n + 1) = P (X = n)(1 − p) montre, puisque 0 < 1 − p < 1,
que les probabilités successives décroissent constamment ; le mode a donc pour valeur 1.
Cas typique
Le tirage avec remise de n boules dans une urne ne contenant que deux types de boules (on
s’intéresse à l’indice de la première obtention d’une boule d’un certain type) ;. . .
Exemple 6.5.2 On tire avec remise une boule dans une urne contenant 113 boules blanches et
7 boules noires. A priori, combien devra-t-on effectuer de tirages pour obtenir une boule noire
pour la première fois ?
Solution :
La v.a. X = ”obtenir une boule noire pour la première fois” suit une loi géométrique de
7
p = 120 . D’après la formule de l’espérance mathématique de la loi géométrique on obtient
E(X) = p1 = 120 7
, et donc, il faudra s’attendre à exécuter entre 17 et 18 tirages pour voir
apparaı̂tre pour la première fois une boule noire.
Exemple 6.5.3 Un homme ivre rentre chez lui avec 10 clés différentes dans sa poche. Pour
ouvrir la porte, il essaie une clé au hasard et, si la porte ne s’ouvre pas, il remet la clé dans sa
poche et recommence. X est le nombre de clés essayées jusqu’à ce que la porte s’ouvre.
Donner l’ensemble fondamental Ω de la variable aléatoire X et la probabilité qui la décrit. Puis,
préciser le nom de la loi, ses paramètres, et, pour k ∈ X(Ω), donner l’expression de P (X = k).
Solution :
L’essai d’une clé au hasard est une épreuve de Bernoulli, avec deux résultats possibles :
1
• le succès : la porte s’ouvre. Sa probabilité est la probabilité p = 10
d’avoir choisi la bonne
clé.
9
• l’échec : la porte ne s’ouvre pas. Sa probabilité est q = 1 − p = 10
.
P (wn ) = pq n−1 .
La probabilité d’un événement est la somme des probabilités des événements élémentaires qu’il
contient.
Soit X le nombre de répétitions de l’épreuve de Bernoulli qu’il faut faire pour rencontrer un
succès. L’événement X = n, pour un n ∈ N, est l’événement élémentaire wn .
La loi de probabilité de X est donc donnée par : P (X = k) = P (wk ) = pq k−1 .
C’est la loi géométrique sur N.
Paramètres :
N +1 N M (N + 1)
E(X) = V ar(X) = q .
M +1 (M + 1)2 (M + 2)
Une v.a. de Poisson intervient quand on étudie le nombre d’apparitions d’un phénomène rare
et sans mémoire dans un intervalle de temps donné t.
La loi de Poisson (dite aussi la loi des petits nombres) est la loi des événements rares (de
petite probabilité) : maladies rares, accidents rares, pannes, radioactivité...
La loi de Poisson convient à la description des événements dont les chances de réalisation
sont faibles. Comme dans le cas de la distribution binomiale, il est nécessaire pour que la loi
s’applique que la probabilité de réalisation de l’événement reste constante.
Définition 61 Une v.a. X suit une loi de Poisson de paramètre λ (λ réel strictement
positif) si elle admet pour fonction de distribution l’ensemble des couples (k, pk ) avec
k = 0, 1, 2, . . . et
e−λ λk
pk = P (X = k) = . /P OISSON (k; λ; 0)/
k!
Notation : X ∼ P(λ)
Fonction de répartition :
X λi
F (k) = P (X < k) = e−λ . /P OISSON (k − 1; λ; 1)/
0≤i<k
i!
Paramètres :
µ = λ, σ 2 = λ.
Démonstration
On reconnaı̂t dans la série infinie, la somme des probabilités d’une variable aléatoire de Poisson,
égale par conséquent à l’unité :
+∞ −λ k−1
X e λ
= 1.
k=1
(k − 1)!
Par suite :
E(X) = λ.
Les deux premiers termes de la somme sont nuls : on peut faire débuter celle-ci à 2 et mettre
m2 en facteur :
∞
2
X e−λ λk−2
E{X(X − 1)} = m .
k=2
(k − 2)!
k ′ = k − 2.
On obtient
∞ ′
X e−λ λk
E{X(X − 1)} = m2
k′ =0
k′!
La série infinie est égale à 1 puisqu’elle représente la somme des probabilité attachées à une
variable de Poisson.
Par conséquent :
E{X(X − 1)} = λ2 .
Forme de la distribution
• Forme en L si λ ≤ 1 ;
• Forme en cloche dissymétrique pour λ > 1. Le mode se déplace vers la droite lorsque λ
augmente.
Conditions d’application
• soit comme un cas particulier de la loi binômiale : c’est la loi vers laquelle tend celle-ci
lorsque le nombre n d’épreuves devient grand, alors que la probabilité p de réalisation de
l’événement est faible ; c’est la raison pour laquelle la loi de Poisson a été souvent appelée
“loi des petits nombres ” ;
Processus de Poisson
• Cette probabilité est indépendante du nombre d’événements qui se sont produits antérieurement,
et reste constante au cours de la période d’observation.
• La probabilité de deux apparitions successives de cet événement sur un même petit in-
tervalle de temps dt est négligeable.
• Les ventes d’un appareil déterminé dans un magasin, la demande d’un certain modèle de
pièce de rechange en réserve ;
Exemple 6.6.1 Dans un hôtel, il arrive en moyenne 1.2 personne par 10 minutes, entre 15h
et 21h. On prend pour variable aléatoire X le nombre de personnes arrivant dans cet hôtel en
10 minutes, dans cet horaire particulier. On admet que X suit une loi de Poisson.
P (X ≥ 3) = 1 − P (X ≤ 2)
de la table fonction de répartition de Poisson pour λ = 1.2 et X = 2 :
P (X ≤ 2) = 0.8795
P (X ≥ 3) = 1 − 0.8795 = 0.1205.
P (X ≥ 3) = 1 − P (X = 0) − P (X = 1) − P (X = 2)
= 1 − 0.3012 − 0.3614 − 0.2169 = 1 − 0.8795 = 0.1205
P (X = 6) = 0.
n! n! (np)k (1 − p)n
P (X = k) = pk (1 − p)n−k = .
k!(n − k)! (n − k)!nk k! (1 − p)k
n!
• lim = 1 car :
n→+∞ (n − k)!nk
n! nn−1n−2 n−k+1
k
= ...
(n − k)!n n n n n
1 2 k−1
=1 1− 1− ... 1 −
n n n
• lim (1 − p)k = 1
p→0
• log(1 − p)n = n log(1 − p) ≈ −np lorsque n → +∞ et p → 0.
On en déduit que :
lim (1 − p)n = e−λ
n→+∞,p→0,np→λ
En conclusion, lorsque n tend vers l’infini, p tend vers zéro, de sorte que le produit np tend
vers une constante λ la loi binômiale B(n, p) converge vers une loi de Poisson P(λ) puisque :
λk
P (X = k) = Cnk pk (1 − p)n−k → e−λ
k!
Ce résultat est très intéressant en pratique ; il permet de remplacer la loi binomiale par la loi
de Poisson lorsque n est grand, p petit, le produit np étant de l’ordre de quelques unités. Le
développement binomial :
Xn
n
(p + q) = Cnk pk q n−k
k=0
remplacé par le développement infini :
−λ λ λ2 λk
e 1+ + + ... + + ... .
1! 2! k!
de sorte que la variable X théoriquement susceptible de prendre, non plus un nombre limité,
mais un nombre infini de valeurs possibles. En réalité, les probabilités deviennent rapidement
si petites que la représentation de la distribution d’une variable discrète finie par une loi de
Poisson est possible.
Habituellement on accepte de substituer la loi de Poisson à la loi binomiale
lorsque l’on a à la fois :
n > 30; n p < 5 ou n q < 30
Certains auteurs donnent des conditions de validité de l’approximation légèrement différentes
comme par exemple :
n > 50; p ≤ 0.1; npq < 20.
Mais quelles que soient les approches, on doit toujours avoir :
• Nombre de pièces défectueuses dans un échantillon important prélevé au cours d’un pro-
cessus de fabrication en série : en général, la proportion de pièces défectueuses dans
l’ensemble de la fabrication est faible ;
• Nombre d’erreurs commises lors de l’inventaire d’un stock comportant un grand nombre
d’articles différents ; d’une façon générale, nombre d’erreurs commises au cours d’une
longue suite d’opérations.
1. Soit X le nombre de mois durant lesquels il y a une rupture de stock pendant une période
de 5 ans. Quelle loi suit X ?
2. Calculer P (X ≥ 2) et donner sa signification.
3. Comment peut-on approximer cette loi ? Calculer P (1 < X < 5) et P (1 < X ≤ 5).
Solution
X ∼ B(60, 1/30).
2.
La probabilité de constater une rupture de stock pendant 2 mois ou plus durant cette
période de 5 ans est de 59,86%.
3.
n = 60 > 30, np = 60 × 1/30 = 2 ≤ 5
On peut approximer la loi binômiale par une loi de Poisson de paramètre :
λ = np = 2 → X ∼ P(λ = 2).
5.2.3 Décrivez la loi binômiale. Que valent l’espérance et l’écart-type d’une loi binomiale ?
5.2.7 Décrivez la loi de Poisson. Dans quelles conditions la loi binômiale peut être approximer
par la loi de Poisson ?
M
Dans une urne, il y a N boules parmi lesquelles M de couleur blanche, p = N
et q = 1 − p.
Uniforme 1 N +1 N 2 −1
{1, . . . , N } P (X = k) = 2 12
U(N ) N
Bernoulli P (X = 0) = q
{0, 1} p pq
B(1, p) et P (X = 1) = p
Binomiale n k
{0, 1, . . . , n} P (X = k) = p q n−k np npq
B(n, p) k
M
Hypergéométrique × N −M
[max(0; n − N + M ); min(n; M )] P (X = k) = k
n−k
np npq N −n
H(N, n, p) N
n
N −1
Géométrique 1 q
N P (X = k) = p q k−1 p2
G(p) ou R(1, p) p
Pascal k−1 r r rq
{k ∈ N; k ≥ r} P (X = k) = p q k−r p2
R(r, p) r−1 p
P (X = k) =
Pascal sans remise
M
× Nk−r N +1 N (N +1)(M −r+1)
{k ∈ N; r ≤ k ≤ N − M + r} r−1
−M
M −r+1 rM +1
rq (M +1)2 (M +2)
S(N, r, p) ×
N N −k+1
k−1
Poisson k
N P (X = k) = e−λ λk! λ λ
P(λ)
Chapitre 7
Définition 62 Variable aléatoire continue : X est une variable qui peut prendre
toutes les valeurs d’un intervalle fini ou infini. Cela signifie que la différence entre deux
valeurs voisines peut être aussi petite que l’on peut l’imaginer. C’est un nombre réel. En
règle générale, toutes les variables qui résultent d’une mesure sont de type continu.
Définition 63 Une variable aléatoire X définie sur un univers Ω est dite absolument
continue et F (x) - fonction de répartition, s’il existe une fonction densité de
probabilité f telle que :
Z t
∀t ∈ R P (X < t) = F (t) = f (x)dx
−∞
P1 : ∀x ∈ R f (x) ≥ 0
R +∞
P2 : −∞ f (x)dx = 1
P3 : ∀a ∈ R P (X = a) = 0
La probabilité que la variable aléatoire X prenne une valeur donnée de l’intervalle est
nulle. On ne peut donc plus définir de loi de probabilité comme pour les variables aléatoires
discrètes. On va utiliser dans ce cas la fonction de répartition de la variable aléatoire.
P4 : Si avec a < b
Z b
P (a ≤ X ≤ b) = F (b) − F (a) = f (x)dx,
a
Remarque : Cette fonction densité de probabilité est une loi de probabilité car l’aire sous la
courbe est égale à 1 pour toutes les valeurs de x définies.
F (x + ∆x) − F (x)
f (x) = lim = F ′ (x).
∆x→0 ∆x
D’ici quand ∆x tend vers 0, le numérateur F (x + ∆x) − F (x) tend vers 0 et f (x) tend
vers 0 - Propriété P3 de la densité de probabilité.
P1 : F (Vmin ) = 0 et F (Vmax ) = 1;
P (X ≤ xp ) = p ou encore F (xp ) = p.
Définition 67 Les quartiles. Les quartiles, notés par Q1 , Q2 et Q3 , divisent une distri-
bution en quatre groupes égaux comprenant chacun 25% des données de la distribution.
On dit que
1) 25% des données sont inférieures à Q1
2) 50% des données sont inférieures à Q2
3) 75% des données sont inférieures à Q3
Définition 69 Les quintiles. Les quintiles, notés par V1 , V2 , V3 et V4 , divisent une série
statistique ordonnée en 5 groupes égaux comprenant chacun 20% des données de la série.
On dit que
1) 20% des données sont inférieures à V1
2) 40% des données sont inférieures à V2
3) 60% des données sont inférieures à V3
4) 80% des données sont inférieures à V4
Définition 70 Les centiles. Les centiles, notés par C1 , C2 , . . . , C98 et C99 , divisent une
série statistique ordonnée en 100 groupes égaux comprenant chacun 1% des données de
la série.
On dit que
1) 1% des données sont inférieures à C1
2) 2% des données sont inférieures à C2
3) . . .
99) 99% des données sont inférieures à C99
7.1.2 Médiane
7.1.3 Mode
Cette valeur peut ne pas être unique. Une distribution unimodale est une distribution
n’ayant qu’un seul mode, sinon elle est bimodale, trimodale ou multimodale.
Exemple 7.2.1 Soit X la variable aléatoire continue uniforme définie sur le segment (0, 10).
La densité de probabilité de cette variable est égale à :
f (x) = 1/10.
En effet : Z Z
10 10
dx
f (x)dx = = 1.
0 0 10
Son espérance mathématique est :
Z 10 10
1 1 1 2
µ = E(X) = x dx = x = 5.
0 10 10 2 0
Par conséquent :
Z +∞ Z +∞
E(X.Y ) = xf (x)dx × yf (y)dy
−∞ −∞
Z +∞ Z +∞
= xf (x)dx × yf (y)dy
−∞ −∞
d’où
E(X.Y ) = E(X) × E(Y ).
Une variable aléatoire X est dite centrée si son espérance mathématique est nulle.
La variable X − E(X) est une variable aléatoire centrée. Son espérance mathématique est
nulle.
7.2.3 Variance
Propriétés de la variance
V ar(aX + b) = a2 V ar(X).
En effet :
V ar(aX + b) = E((aX + b − E(aX + b))2 ).
Or, d’après les propriétés de l’espérance mathématique :
E(aX + b) = aE(X) + b
d’où :
La variance d’une somme de variables aléatoires indépendantes est égale à la somme des
variances.
En effet, par définition :
L’expression E((X − E(X))(Y − E(Y ))), que l’on appelle la covariance de X et de Y , est
nulle lorsque les variables X et Y sont indépendantes.
Par conséquent :
V ar(X + Y ) = V ar(X) + V ar(Y ).
Les propriétés d’additivité ne s’appliquent qu’aux variances ; Elles ne s’appliquent pas
aux écart-types. (une somme σ(X) + σ(Y ) n’a aucun sens statistique)
Une variable aléatoire X est dite réduite si son écart-type est égal à 1.
X
La variable aléatoire σ
admet une variance de 1 et est appelée variable réduite.
Une variable aléatoire centrée réduite est dite standardisée (ou variable normalisée).
A n’importe quelle variable aléatoire X, on peut associer la variable standardisée
X − E(X)
Z= .
σ(X)
En divisant la variable centrée par son écart-type, une valeur située à un écart-type de la
moyenne sera ramenée à 1, une autre située à deux écarts-types sera ramenée à 2 : l’échelle de
référence, ou unité de mesure, d’une variable centrée-réduite est l’écart-type.
Les valeurs des variables centrées-réduites sont complètement indépendantes des unités de
départ. Une mesure exprimée en mètres ou en centimètres donne exactement la même variable
centrée-réduite. On peut ainsi faire des comparaisons entre variables de natures différentes. Si
un enfant est à +3 écarts-types de la moyenne pour sa taille et +1 écart-type pour son poids, on
sait qu’il est plus remarquable par sa taille que par son poids. L’examen des variables centrées-
réduites est très pratique pour déceler les valeurs “anormalement” grandes ou “anormalement”
petites.
mk = E(X k ).
µk = E[(X − E(X))k ].
On a donc
m1 = E(X), µ1 = 0, µ2 = V ar(X).
Tous les moments centrés d’ordre impair (> 1) donnent une indication sur la dissymétrie de la
loi de probabilité, mais on n’utilise que le moment d’ordre 3 :
Coefficient d’asymétrie :
µ3 µ3
β= 3/2
= .
µ2 σ3
Le coefficient d’asymétrie est une grandeur sans dimension, sa valeur donne une idée de
l’importance de la dissymétrie et son signe montre si la dissymétrie provient de valeurs élevées
de X (dissymétrie à droite ) ou des valeurs petites de X (dissymétrie à gauche).
Tous les moments centrés d’ordre pair sont des variables de dispersion. On n’utilise que le
moment µ4 .
Ce facteur est également sans dimension et permet donc de montrer qu’une distribution est
plus aplatie ou moins aplatie qu’une distribution gaussienne, toutes choses égales par ailleurs
(même espérance et même variance).
Exemple 7.2.6.1 [11] Une variable aléatoire continue a une densité de probabilité f (x) =
1 x
3
− 18 . Son intervalle de définition est [0, 6].
1. Vérifier par le calcul et graphiquement que, dans cet intervalle, la somme des probabilités
des valeurs de cette variable aléatoire continue est bien égale à 1.
2. Représenter graphiquement les variations de la fonction de répartition dans cet intervalle.
3. Calculer E(x).
4. Calculer V ar(x) et σ(x).
Solution :
1. La somme des probabilités des valeurs de cette variable aléatoire continue dans l’intervalle
est Z 6 Z 6 6
1 x x x2 6 36
f (x)dx = − dx = − = − = 2 − 1 = 1.
0 0 3 18 3 36 0 3 36
Pour que f (x) représente la loi de probabilité de la variable aléatoire continue sur l’in-
tervalle [0, 6], il faut que l’aire se situant sous la courbe et entre les axes des abscisses et
ordonnées soit égale à 1. Cette aire est celle du triangle AOB qui a une surface
hauteur × base 6 × 1/3
SAOB = = = 1.
2 2
Lecture Notes in Computer Science and Technologies No 2, 2016
Eléments de la théorie des probabilités 127
1 x
2. La fonction de répartition F (x) est la primitive de f (x) = 3
− 18
.
x 1 x2 x x2
F (x) = − = − .
3 18 2 18 36
Z 6 Z 6 Z 6
1 x x x2
3. E(x) = xf (x)dx = x − dx = − dx
0 0 3 18 0 3 18
6
x2 x3 36 216
= − = −
6 54 0 6 54
= 6 − 4 = 2.
Z 6
R6 2 2 1 2x
4. V ar(x) = 0
x f (x)dx − E(x) = x − dx − 4
0 3 18
Z 6 2
x x3
= − dx − 4
0 3 18
3 6
x x4 216 1296
= − −4= − − 4 = 2.
9 72 0 9 72
√
σ(x) = 2 = 1.414
Exemple 7.2.6.2 On suppose que la durée de vie d’un individu est une variable aléatoire
continue dont la densité de probabilité f est donnée par
2
kt (100 − t)2 si 0 ≤ t ≤ 100
f (t) =
0 sinon
4. Quelles conditions doit vérifier une fonction f pour être densité de probabilité d’une
variable aléatoire continue ?
Chapitre 8
Définition 73 On dit qu’une v.a. X suit une loi uniforme continue sur un intervalle
[a, b], si elle admet une fonction de densité de probabilité constante sur cet intervalle et
nulle ailleurs.
Notation : X ∼ U[a; b]
Densité de probabilité
La loi uniforme continue étant une loi de probabilité, l’aire hachurée en rouge sur la figure
1
ci-dessus vaut 1. Ceci implique que la valeur prise par f (x) vaut b−a .
1
(b−a)
, si x ∈ [a, b]
f (x) =
0, sinon
Fonction de répartition
0 si x≤a
x−a
F (x) = b−a
si a<x≤b
1 si x>b
On en déduit :
Z x
si x ≤ a, F (x) = 0dt = 0
Z−∞
a Z x
1 x−a
si a ≤ x ≤ b, F (x) = 0dt + dt =
−∞ a b−a b−a
Z a Z b Z x
1
si x ≥ b, F (x) = 0dt + dt + 0dt = 1
−∞ a b−a b
a+b (b − a)2
E(X) = µ = ; V ar(X) = σ 2 = .
2 12
Vérification
• Espérance
Z b b
1 1 t2 1 b 2 − a2 a+b
E(X) = tdt = = = .
a b−a b−a 2 a b−a 2 2
• Variance
Z b
1 a2 + ab + b2 (a + b)2 (b − a)2
V ar(X) = (t − E(X))2 dt = − = .
a b−a 3 4 12
Exemple 8.1.1 Soit X une variable aléatoire continue uniforme définie sur le segment [1, 4],
c.-à-d. X ∼ U[1; 4]. La densité de probabilité de cette variable aléatoire est égale à :
1
b−a
= 31 , si x ∈ [1, 4]
f (x) =
0, sinon
Exemple 8.1.2 Pierre attend à la maison le technicien pour le TV qui doit venir entre 10 et 18
heures. Pierre a attendu jusqu’au 14 heures et il est sorti pour une heure. Trouver la probabilité
pour que le technicien ne trouve pas Pierre à la maison.
Solution :
De l’énoncé on accepte que le temps d’arrivée du technicien chez Pierre est une variable aléatoire
uniforme continue X ∼ U[14; 18]. La probabilité de ne pas trouver Pierre à la maison est
15 − 14 14 − 14 1
P (14 < X < 15) = F (15) − F (14) = − = .
18 − 14 18 − 14 4
Définition 74 Une v.a. X suit une loi normale si elle admet pour fonction de densité
de probabilité une fonction définie par :
1 1 x−µ 2
f (x) = √ e− 2 ( σ )
σ 2π
avec x ∈ R, µ un paramètre réel et σ un paramètre réel strictement positif.
On verra plus tard que µ est égal à l’espérance mathématique (ou moyenne) et σ à l’écart-
type de la distribution. La loi normale est donc entièrement définie par sa moyenne µ et son
écart-type σ appelés paramètres de la loi normale. R
On démontre que f est bien une fonction de densité de probabilité car R f (x)dx = 1. Pour le
R 2 √
démontrer on utilise que R e−x /2 dx = 2π (c’est l’intégrale de Gauss).
La loi normale étant tabulée, cette expression nous sera de peu d’utilité.
La loi normale dépendant de deux paramètres, on pourrait penser que les tables de cette
loi sont à triple entrée (µ, σ et x) et, par conséquent, comme celle de la loi binômiale, fort
volumineuses et d’usage peu commode. Fort heureusement, il n’en est rien : de la connaissance
de la loi pour une valeur déterminée de µ et de σ, on peut déduire de façon très simple les
distributions de probabilité correspondant à n’importe quelle autre valeur de µ et de σ.
En fait il ne s’agit pas d’une courbe unique mais plutôt d’une famille de courbes dépendant de
µ et σ.
Les intervalles “Un, deux, trois sigma” Les observations sont groupées autour de la
moyenne :
X −µ
Z=
σ
toutes ces courbes se réduisent à la courbe représentative de la variable normale centrée réduite
Z.
V ar(X) = σ 2 .
σ(X) = σ.
Les valeurs π(t) de la fonction de répartition π de la variable normale centrée réduite se lisent
dans la table pour t :
π(t) = 1–π(–t)
1. La distribution est symétrique par rapport à la droite d’équation x = µ. Donc l’aire sous
la courbe de part et d’autre de cette droite est égale à 0.5.
3. L’axe des abscisses est une asymptote et l’aire sous la courbe à l’extérieur de l’intervalle
[µ − 3σ, µ + 3σ] est négligeable : P (µ − 3σ < X < µ + 3σ) = 0.9974. Dans la pratique,
si on reçoit des valeurs hors de cet intervalle, on peut les considérer comme des erreurs.
Ces observations doivent être répétées.
A toute variable aléatoire X, on peut associer une variable dite standardisée X−E(X) σ(X)
d’espérance
nulle et de variance unité (ceci résultait des propriétés de translation et de changement d’échelle).
On montre assez facilement que si on effectue cette transformation sur une variable suivant une
loi normale, la variable standardisée suit encore une loi normale mais cette fois-ci de paramètres
0 et 1. La loi standardisée est appelée loi normale centrée réduite, et notée N(0, 1). Donc si X
suit N(µ, σ), on pose Z = X−µ σ
et Z suit N(0, 1).
On peut résumer la correspondance de la façcon suivante :
X → N(µ, σ) Z → N(0, 1)
X−µ
E(X) = µ Z= σ
E(Z) = 0
V ar(X) = σ 2 V ar(Z) = 1
Il faut garder à l’esprit que concrètement Z est le nombre d’écarts-type entre la valeur de X et
la moyenne.
f (−t) = f (t).
La courbe de densité de probabilité est donc symétrique par rapport à la droite d’abscisse
t = 0.
2. En raison de la symétrie f (t) est maximum pour t = 0. On vérifie que la dérivée
1 2
f ′ (t) = − √ t e−t /2 ,
2π
s’annule pour t = 0 (ainsi que pour t → ±∞),
3. La courbe de densité de probabilité a deux points d’inflexion pour t = −1 et t = +1.
La variable normale de moyenne µ et d’écart-type σ, qui se déduit de la variable centrée
réduite par la transformation linéaire :
x = σ t + µ,
π : R→R Z Z
t t
1 2 /2
t → π(t) = F (t) = P (Z < t) = f (x)dx = √ e−x dx.
−∞ 2π −∞
[12]
La fonction de répartition π(t) est représentée par la courbe cumulative. Le point d’inflexion A
de celle-ci, comme celui de toute courbe cumulative, correspond au maximum de la courbe de
densité de probabilité, c’est-à-dire au mode de la distribution. La valeur π(t0 ) de la fonction de
répartition étant la somme de toutes les probabilités élémentaires correspondant aux valeurs de
Z inférieures à t0 , est égale à l’aire hachurée comprise entre la courbe de densité de probabilité
et l’axe des abscisses.
En raison de la symétrie de la fonction de densité, si t est un réel strictement positif, alors :
π(−t) = 1 − π(t),
la courbe cumulative est symétrique par rapport au point d’inflexion A(0; 0.5).
La fonction π est tabulée.
E(Z) = 0, V ar(Z) = 1, σ = 1.
Quartile : En Statistique descriptive, un quartile est chacune des 3 valeurs qui divisent
les données en 4 parts égales, de sorte que chaque partie représente 1/4 de l’échantillon de
population.
Calcul des quartiles :
• le 1er quartile sépare les 25% inférieurs des données ;
• le 2e quartile est la médiane de la série ;
• le 3e quartile sépare les 25% supérieurs des données ;
La différence entre le 3e quartile et le 1er quartile s’appelle écart interquartile, c’est un critère
de la dispersion de la série.
P (−1 ≤ Z ≤ 1) = 0, 683
P (−2 ≤ Z ≤ 2) = 0, 954
P (−3 ≤ Z ≤ 3) = 0, 997
t0.05 est le réel pour lequel P (−t0.05 ≤ Z ≤ t0.05 ) = 0.95 et on a donc : P (−1.96 ≤ Z ≤ 1.96) ≈
0.95 de même, P (−2.58 ≤ Z ≤ 2.58) ≈ 0.99. Cela donne une idée de la répartition des valeurs
de Z. Environ 95% des réalisations de Z se trouvent entre -1.96 et +1.96.
Si X ∼ N(µ, σ) et Z ∼ N(0, 1), on peut passer de la loi N(µ, σ) à la loi N(0, 1) et inversement
en posant Z = (X − µ)/σ, ce qui entraı̂ne X = σZ + µ.
Cela revient à changer d’origine et d’unité.
Les lois gaussiennes quelconques ne sont pas dans les tables car un calcul relatif à une telle
loi se ramène à un calcul relatif à la loi gaussienne réduite.
La loi N(0, 1) est tabulée à l’aide de la fonction
R t 1 −xde répartition des valeurs positives. Elle
2 /2
donne les valeurs de π(t) = P (0 ≤ Z ≤ t) = 0 √2π e dx pour t > 0. Ce nombre représente
l’aire sous la courbe représentative de la distribution et au dessus de l’intervalle [0, t]. Pour
cette raison la table de la loi normale est aussi appelée table d’aires. Cette table ne dépend
d’aucun paramètre, mais permet cependant de déterminer les probabilités de n’importe quelle
distribution normale !
On a par exemple pour X ∼ N(µ, σ) :
x−µ x−µ
P (X ≤ x) = P (σZ + µ ≤ x) = P Z≤ =π . (8.1)
σ σ
De manière analogue
Valeurs de t négatives
En raison de la symétrie de la courbe de densité, la table permet de déterminer les densités
correspondant à des valeurs négatives de t :
f (−t) = f (t).
La loi normale étant une distribution continue, les densités correspondant à des valeurs de t
intermédiaires de celles figurant dans la table sont obtenues par interpolation linéaire.
Exemple 8.3.10.3 Pour t = 1.36, la densité de probabilité sera évaluée de la façon suivante :
f (1.3) = 0.1714;
f (1.4) = 0.1497;
(f (1.3) − f (1.4)) ∗ 6 (0.1714 − 0.1497) ∗ 6
f (1.36) = f (1.3) − = 0.1714 − = 0.1584.
10 10
2. Utilisation
Le changement de variable :
X −µ
Z=
σ
permet de déterminer à l’aide de la table, la densité de probabilité correspondant à une valeur
quelconque de la variable normale X de moyenne µ et d’écart-type σ.
Pour X = x, la densité de probabilité est, en effet :
" 2 #
1 1 x−µ
f (x) = √ exp − ,
2πσ 2 σ
alors que celle de la valeur correspondante de la variable normale centrée réduite est :
1 2
f (t) = √ e−t /2 .
2π
Il existe donc entre les densités de probabilité de x et de t la relation :
f (t)
f (x) = .
σ
t = (8 − 5)/2 = 1.5.
d’où
f (t)
f (x) =
σ
0.1295
f (8) = = 0.0648.
2
Pour X = 4.52 :
f (0.20) = 0.3910
f (0.30) = 0.3814
(0.3910 − 0.3814)4
f (0.24) = 0.3910 − = 0.3872,
10
d’où :
0.3872
f (4.52) = = 0.1936.
2
Cette table donne, pour toute valeur positive t de la variable normale centrée réduite, la valeur
correspondante de la fonction de
répartition π(t), représentée par l’aire
hachurée, qui est égale à la probabilité
pour que Z soit inférieur à t :
Les valeurs de t varient de centième en centième : z = 0.00; 0.01; 0.02; . . . Les unités et les
dixièmes se lisent en ligne ; les centièmes en colonne (annexe : Table 6.)
• Probabilité pour que Z soit inférieur à t
P (Z ≥ t) = 1 − P (Z < t) = 1 − π(t).
Exemple 8.3.10.6 La probabilité pour que Z soit supérieur ou égal à 0.28 est :
• Valeurs de t négatives
2. Utilisation
Le changement de variable :
X −µ
Z=
σ
permet de déterminer à l’aide de la table la probabilité pour qu’une variable normale X de
moyenne µ et d’écart-type σ soit inférieure à une valeur donnée x, ou supérieure à cette valeur,
ou comprise entre deux valeurs déterminées x1 et x2 .
En effet :
9−5
t= = 2.
2
P (X < 9) = P (Z < 2) = π(2)
= 0.9772.
8.36 − 5
t= = 1.68.
2
P (X ≥ 8.36) = P (Z ≥ 1.68)
= 1 − P (Z < 1.68)
= 1 − π(1.68)
= 1 − 0.9535 = 0.0465.
6−5 8−5
t1 = = 0.5, t2 = = 1.5,
2 2
P (6 ≤ X < 8)
= P (0.5 ≤ Z < 1.5)
= P (Z < 1.5) − P (Z < 0.5)
= π(1.5) − π(0.5)
= 0.9332 − 0.6915
= 0.2417.
1−5 7−5
t1 = = −2, t2 = = 1,
2 2
P (1 ≤ X < 7)
= P (−2 ≤ Z < 1)
= P (Z < 1) − P (Z < −2)
= P (Z < 1) − [1 − P (Z < 2)]
= π(1) − [1 − π(2)]
= 0.8413 − 0.0228 = 0.8185.
Dans l’utilisation de la table de la loi normale standardisée N(0; 1), on aura des calculs de
probabilités à faire. On les fera avec les règles suivantes :
P (X = a) = 0
P (X < a) = P (X ≤ a)
P (X > a) = 1 − P (X ≤ a)
P (X ≤ −a) = P (X ≥ a) = 1 − P (X < a)
P (−a ≤ X ≤ a) = 2P (X ≤ a) − 1
Les trois premières règles sont vraies pour toute v.a. X à densité (car pour ces lois les points
sont négligeables). Les deux dernières sont vraie pour toute loi symétrique (c.à.d avec densité
paire : f (−t) = f (t), comme la loi normale ou (cf. après) la loi de Student mais pas la loi du
χ2 ).
1. P (Z < 1.47). En lisant directement la table (ligne 1.4 et colonne 0.07), nous avons
P (Z < 1.47) = π(1.47) = 0.9292,
2. P (Z > 1.47) = 1 − P (Z < 1.47) = 1 − 0.9292 = 0.0708.
3. P (Z < −0.66). La table ne donne P (Z < t) que pour t > 0. Lorsque t < 0, il faut utiliser
la caractéristique de f (t) qui est symétrique par rapport à E(z) = µ = 0,
P (Z < −0.66) = π(−0.66) = 1 − π(0.66) = 1 − 0.7454 = 0.2546
4. P (Z > −0.66) = P (Z < 0.66) = π(0.66) = 0.7454. Tout ceci en raison de la symétrie par
rapport à E(z) = 0.
5. P (0.56 < Z < 1.24)
P (0.56 < Z < 1.24) = P (Z < 1.24) − P (Z < 0.56)
= π(1.24) − π(0.56) = 0.8925 − 0.7123
= 0.1802
6. P (−2 < Z < 2)
P (−2 < Z < 2) = π(2) − π(−2) = π(2) − (1 − π(2))
= π(2) − 1 + π(2)
= 2π(2) − 1 = 2 × 0.9772 − 1 = 0.9544
7. P (Z < 1.5 ou Z > 2.3) : 2 solutions sont possibles :
◦ P (Z < 1.5 ou Z > 2.3) = P (Z < 1.5) + P (Z > 2.3)
= π(1.5) + 1 − π(2.3)
= 0.9332 + 1 − 0.9893 = 0.9439
◦ P (Z < 1.5 ou Z > 2.3) = 1 − P (1.5 < Z < 2.3)
= 1 − (π(2.3) − π(1.5))
= 1 − 0.9893 + 0.9332 = 0.9439
11. Calculer t1 et t2 sachant que t2 = −t1 et que P (t1 < Z < t2 ) = 0.903.
Comme t2 = −t1
⇒ π(t2 ) − π(t1 ) = π(t2 ) − π(−t2 )
= π(t2 ) − (1 − π(t2 ))
= 2π(t2 ) − 1 = 0.903
⇒ 2π(t2 ) = 1.903 ⇒ π(t2 ) = 0.9515
⇒ t2 = 1.66; t1 = −1.66
Exemple 8.3.10.9 La v.a. X = “poids d’un foie gras”, suit une loi N(550; 100). Quelle est la
probabilité pour qu’un foie gras pèse moins de 650g, plus de 746g, moins de 500g, entre 550 et
600g ?
650 − 550
P (X < 650) = P Z < = P (Z < 1) = π(1) = 84.13%
100
746 − 550
P (X > 746) = P Z > = P (Z > 1, 96)
100
= 1 − π(Z ≤ 1.96) = 1 − π(1.96) = 1 − 0.9750 = 2.5%
500 − 550
P (X < 500) = P Z < = P (Z < −0.5) = π(−0.5)
100
= 1 − π(0.5) = 1 − 0.6915 = 30.85%
P (550 < X < 600) = P (0 < Z < 0.5) = π(0.5) − π(0) = 0.8413 − 0.5 = 34.13%
Rappelons que pour une variable continue, il n’y a pas de différence entre P (X < k) et P (X ≤ k)
car la probabilité attachée à la valeur k est nulle.
Exemple 8.3.10.10 Lors d’un procès en attribution de paternité, un expert témoigne que la
durée de la grossesse, en jours, c’est-à-dire le laps de temps entre la conception et la nais-
sance de l’enfant, est de distribution approximativement normale avec paramètres µ = 270 et
σ 2 = 100. L’un des pères putatifs est en mesure de prouver son absence du pays pendant une
période s’étendant entre le 290-ème et le 240-ème jour précédent l’accouchement. Quelle est la
probabilité que la conception ait eu lieu à ce moment ?
Solution :
après consultation de la table fournissant certaines valeurs de la loi normale centrée réduite.
Chapitre 9
Ce résultat est d’une grande importance car c’est lui qui permet de relier la théorie à la
pratique. Nous avons jusqu’à présent construit un modèle mathématique basé sur une notion
abstraite, celle de probabilité, et nous en avons déduit la notion d’espérance mathématique. La
loi forte des grands nombres montre que, si un nombre X qui dépend du hasard se conforme
à ce modèle mathématique, c’est-à-dire peut être considéré comme une variable aléatoire, on
peut mesurer son espérance mathématique : Il suffit de faire une suite de tirages
indépendants X1 , . . . , Xn , . . . de ce nombre X et on verra peu à peu la suite cor-
respondante des moyennes X̄n se stabiliser autour d’une certaine valeur. C’est
cette valeur qui est l’espérance mathématique de X. Cette régularité s’observe aussi
expérimentalement de la façon suivante : En plusieurs occasions différentes, on fait un grand
nombre de tirages indépendants de X. Alors, et quoique les valeurs prises par X puissent être
très différentes les unes des autres, les moyennes des valeurs prises sont à peu près les mêmes
dans ces diverses occasions. Cela s’explique ainsi : La première occasion conduit aux m obser-
vations X1 , . . ., Xm , la seconde aux n observations X1′ , . . ., Xn′ . Alors, si m et n sont grands,
les 2 moyennes
X1 + . . . + Xm X1′ + . . . + Xn′
X̄m = et X̄n =
m n
sont toutes deux proches du même nombre E(X) et sont, par suite, proches l’une de l’autre.
Y = X1 + X2 + . . . + Xi + . . . + Xn →n→∞ N(µ, σ)
P P
avec µ = i µi et σ 2 = i σi2
ou, avec une conclusion formulée autrement
Y −µ
→ N(0, 1).
σ
Le TCL sera très précieux puisqu’il nous explique que si on fait la somme d’un très
grand nombre de variables aléatoires de loi quelconque, cette somme suit approxi-
mativement une loi normale (en fait, sans rentrer dans le détail des hypothèses, il
nous dit que la variable X = X1 + X2 + . . . + Xn tend à suivre une loi normale quand
n tend vers l’infini).
D’une part, cela nous permet de comprendre pourquoi autant de distributions observées
dans la réalité ont approximativement cette forme de cloche : elles décrivent des phénomènes qui
résultent de l’addition d’un grand nombre de causes de fluctuation indépendantes. Exemple :
la taille d’un individu.
D’autre part, cela nous permettra d’approcher beaucoup de lois par une loi normale, pour
peu que la variable étudiée s’exprime comme une somme d’un grand nombre de variables
indépendantes.
L’approximation d’une loi binômiale par la loi normale a pour origine le théorème de Moivre-
Laplace :
npq > 9
ou n > 20 et np > 10 et nq > 10
ou n > 30 et np > 5 et nq > 5
ou n ≥ 30 et np ≥ 15 et nq > 5.
2. L’approximation pose le problème du passage d’une loi discrète à une loi continue.
La loi binômiale étant discrète et la loi normale étant continue, on ne peut approximer
P (X = k) par P (Z = k) où Z suit la loi normale centrée réduite : en effet, P (Z = k) est
toujours nul.
On doit donc substituer à une valeur discrète un intervalle continu. On doit remplacer
k par l’intervalle [k − 0.5, k + 0.5]. Cette substitution est qualifiée de correction de
continuité.
Par exemple la valeur 8 est remplacée par l’intervalle [7.5; 8.5] et P (X = 8) = P (7.5 <
Z < 8.5).
Correction de continuité Graphiquement, remplacer une variable discrète par une variable
continue revient à substituer un histogramme au diagramme en bâtons. Dans cet histogramme,
la probabilité Px est représentée par un rectangle dont la base, de longueur unité, est centrée
sur la valeur x et dont la hauteur est égale à Px .
Diagramme en bâtons
P (x1 ≤ X ≤ x2 )
1
est représentée par la somme des aires des rectangles représentatifs entre x1 − 2
et x2 + 21 .
Cette correction des limites de l’intervalle d’intégration est appelée correction de continuité.
Son incidence est d’autant plus importante que les limites x1 et x2 sont plus proches de la
moyenne µ = np et que l’écart-type est plus petit.
Remarques :
P (X = a) P (a − 0.5 ≤ Z ≤ a + 0.5)
P (a ≤ X ≤ b) P (a − 0.5 ≤ Z ≤ a + 0.5)
P (x ≤ a) P (Z ≤ a + 0.5)
P (x ≥ a) P (Z ≥ a − 0.5)
P (X > a) = P (X ≥ a + 1) P (Z ≥ a + 0.5)
P (X < a) = P (X ≤ a − 1) P (Z ≤ a − 0.5)
Dans le cas où l’intervalle considéré pour X englobe une grande partie de l’étendue totale,
la correction n’a pas beaucoup d’influence.
Exemple 9.3.1 D’après une étude réalisée auprès des assurés d’une compagnie, il semble que
30% des assurés sont intéressés par un nouveau contrat pour renforcer leur protection en cas
d’accident corporel de la vie quotidienne. Le responsable interroge 70 assurés choisis au hasard
afin de connaı̂tre leur réaction sur ce nouveau contrat.
1) Quelle est la probabilité que 15 assurés se déclarent intéressés par ce nouveau contrat ?
k
Loi exacte : X ∼ B(n = 70; p = 0.3) ; P (X = k) = C70 0.3k 0.730−k k = 0, 1, . . . , 70
15
P (X = 15) = C70 0.315 0.755 = 0.031292174 = 3.13%
2) Quelle est la probabilité qu’au plus 20 assurés se déclarent intéressés par ce nouveau contrat ?
20
X 20
X
k
P (X ≤ 20) = P (X = k) = C70 0.3k 0.770−k = 0.455020367 = 45.50%
k=0 k=0
3) Par quelle loi continue peut-on approcher la loi de X ? En déduire les valeurs approchées des
probabilités précédentes.
√
X ∼ B(n = 70; p = 0.3) ≈ N(µ = np = 21; σ = npq = 3.83)
Exemple 9.3.2 [12] On tire un échantillon de taille n = 40 dans une population comportant
une proportion p = 0.4 d’individus présentant un certain caractère A. Évaluons la probabilité
d’avoir dans l’échantillon un nombre d’individus X présentant ce caractère, supérieur ou égal
à 16 et strictement inférieur à 20 :
P (16 ≤ X < 20).
Le nombre X d’individus présentant le caractère A est une variable binômiale d’espérance
√
mathématique np = 16 et d’écart-type npq = 3.1. Cette loi binômiale peut être approchée
par la loi normale ayant même espérance mathématique et même écart-type.
S’agissant de l’approximation d’une variable discrète, ne pouvant prendre que certaines
valeurs entières, par une variable continue, une attention particulière doit être d’abord apportée
aux limites de l’intervalle dont on recherche la probabilité.
En effet, si X est une variable continue, il importe peu que la limite de l’intervalle soit
X < 20 ou X ≤ 20,
la probabilité que X soit rigoureusement égale à 20 étant nulle (seule la probabilité que X soit
compris dans un intervalle infinitésimal entourant le point d’abscisse 20 a une valeur infiniment
petite, mais non nulle). Par contre, si X est une variable discrète, écrire :
X < 20
signifie :
X ≤ 19,
la variable X ne pouvant prendre aucune autre valeur entre 19 et 20.
Dans l’approximation normale, nous devons donc déterminer en réalité :
P (16 ≤ X ≤ 19).
Les valeurs de la variable normale centrée réduite correspondant à 16 et 19 sont :
16 − 16 19 − 16
z1 = = 0., z2 = = 0.97
3.1 3.1
Lecture Notes in Computer Science and Technologies No 2, 2016
Eléments de la théorie des probabilités 159
Px = Cnx px q n−x .
On obtient :
P16 = 0.1279
P17 = 0.1204
P18 = 0.1026
P19 = 0.0792
A retenir :
Si n est suffisamment grand et si la distribution n’est pas trop dissymétrique, une variable p
aléatoire X de loi B(n, p) peut être considérée comme une variable aléatoire Z de loi N(np, np(1 − p)).
Pour le calcul des probabilités, on peut utiliser
!
a − 0.5 − np b + 0.5 − np
P (a ≤ X ≤ b) ≈ P p ≤Z≤ p
np(1 − p) np(1 − p)
np ≥ 10 et n(1 − p) ≥ 10
• lorsque n est très grand ; la correction de continuité déplace les bornes concernant Z de
± √ 0.5 . Un déplacement de 0.01 (qui correspond pour p = 21 à n = 10000) a peu
np(1−p)
d’importance.
• lorsque ces bornes sont situées dans une zone de faible probabilité (consulter les tables).
• lorsque l’intervalle [a, b] contient beaucoup d’entiers (faible erreur relative). On remarquera
à ce propos que pour a = b, on a :
!
a − 0.5 a + 0.5
P (X = a) ≈ P p ≤Z≤ p (9.1)
np(1 − p) np(1 − p)
Il est évident qu’alors, quel que soit n, il n’est pas question de supprimer ±0.5.
• La variable aléatoire X, de loi B(n, p), est une variable discrète. Il est donc important
de préciser si les bornes de l’intervalle sont ou non inclues dans l’intervalle ; ceci peut
modifier en particulier le signe du terme correctif 0.5.
• Il n’est pas choquant d’approcher une distribution sur un ensemble fini depvaleurs par
une distribution sur R puisqu’on sait que pour les lois B(n, p) et N(np, np(1 − p))
pratiquement toute la probabilité est concentrée autour de l’espérance np.
Exemple 9.3.3 Soit X ∼ B(20, 21 ). Le tableau ci-dessous donne une idée de la validité de
l’approximation par une loi normale.
P (X = k)
k Loi binômiale Loi normale (eq. 9.1)
10 0.176197 0.176929
9 ou 11 0.160179 0.160367
8 ou 12 0.120134 0.119390
7 ou 13 0.073929 0.073013
6 ou 14 0.036964 0.036678
etc.
Exemple 9.3.4 On joue 10000 fois à pile ou face. Calculer la probabilité pour que le nombre
de piles soit dans l’intervalle [4900, 5100].
Soit X le nombre de piles. X suit une loi B(10000, 12 ) que l’on peut approcher par une loi
N(5000, 25). On obtient, en désignant par Z une variable N(0, 1) :
Exemple 9.3.5 Soit X de loi B(100, 0.3). Estimer P (24 ≤ X ≤ 29). On considère que X suit
une loi N(30, 21) (puisque n(1 − p) > 10 et np > 10)
On obtient :
Exemple 9.3.6 On estime que la probabilité pour qu’une graine ait perdu son pouvoir ger-
minatif après 3 ans de conservation est de 70%. Sur un échantillon de 100 graines conservées
depuis 3 ans quelle est la probabilité pour que moins de 25 germent ?
Notons p la probabilité qu’une graine germe : p = 0.3 et considérons que l’échantillon est
indépendant.
Notons X la v.a. “nombre de graines qui germent parmi les 100”.
X suit la loi B(100; 0.3) et on cherche : P (X < 25) qui peut s’écrire aussi P (X ≤ 24) =
100 k 100−k
p0 + p1 + . . . + p24 avec pk = k 0.3 0.7 .
Le calcul exact est trop fastidieux pour être fait à la main. On peut alors :
• soit calculer une valeur approchée en remplaçant cette loi binômiale par une loi normale.
C’est possible car les produits np et nq sont assez grands (resp. 30 et 70). Les paramètres
de cette loi seront :
◦ µ = np = 30
√ √
◦ σ= npq = 100 ∗ 0.3 ∗ 0.7 = 4, 5826
La variable aléatoire discrète X ∼ B(100; 0.3) sera alors remplacée par la variable continue :
Xc ∼ N(30; 4.5826)
Un problème se pose alors : faut-il calculer P (Xc < 25) ou P (Xc ≤ 24) ? Pour une variable
continue, ces valeurs ne sont pas identiques. La meilleure approximation sera obtenue en prenant
la valeur intermédiaire 24,5. C’est ce qu’on appelle la “correction de continuité”.
Voir la justification en bas.
24.5 − 30
P (X < 25) = P (X ≤ 24) ≈ P (Xc ≤ 24, 5) = π = π(−1.20)
4.5826
= 1 − π(1.20) = 1 − 0.885 = 0.115
/On a appliqué les relations (8.1) et (8.2) et la table de la fonction de répartition π(t) (annexe :
Table 6)/
On peut constater que ceci fournit une excellente approximation de la vraie valeur puisque
l’erreur est de l’ordre du millième.
Correction de continuité
En jaune : la valeur exacte que l’on veut calculer. En effet P (X ≤ 24) = p0 + p1 + . . . + p24 ,
ce qui correspond à la somme des hauteurs de bâtons rouges du diagramme en bâton de la loi
binômiale. Cette somme est égale à la surface des rectangles jaunes puisque ces rectangles ont
pour hauteur les pi et pour base 1.
En bleu : ce qu’on calcule en prenant P (Xc ≤ 24.5), qui correspond à la surface sous la courbe
de densité à gauche du point 24,5. On voit bien que l’approximation serait moins bonne en
s’arrêtant à 24 ou en allant jusqu’à 25.
On pratique la correction de continuité chaque fois qu’on approche une loi discrète par une
loi continue (en fait chaque fois qu’on hésite entre 2 valeurs comme entre 24 et 25 ici).
Exemple 9.3.7 On prend un échantillon de 500 pièces. On sait qu’il y a 40% de pièces dont
le poids est inférieur à 590 g.
1. Soit X le nombre de pièces dont le poids est inférieur à 590 g. Quelle est la loi suivie par
X?
2. Comme peut-on approximer cette loi ? Calculer P (165 < X < 195).
Solution :
=⇒ X ∼ B(500, 0.4)
2.
n = 500 > 30; np = 500 × 0.4 = 200 > 5; nq = 500 × 0.6 = 300 > 5
On peut approximer la loi Binômiale par une loi Normale de paramètres :
√ √
E(X) = np = 200 et σ = npq = 120 = 10.954
X ∼ N(200, 10.954)
Exemple 9.3.8 Dans un service comprenant 300 employés, on remarque que chaque employé
veut téléphoner au-dehors en moyenne 6 minutes par heure. En ne tenant pas compte des appels
venus de l’extérieur, quel est le nombre minimum N de lignes téléphoniques qu’il faut mettre
à la disposition du service pour que, à un instant donné r, il y ait une probabilité inférieure à
2,5 % pour que le nombre des lignes soit insuffisant ?
Le nombre X des employés désirant téléphoner au-dehors à l’instant t est une variable
aléatoire qui obéit à la loi binomiale B(300, p) avec p = 6/60 = 1/10. Le nombre k de lignes
installées est insuffisant si l’on a X > k. Le nombre N est donc le plus petit entier k tel que
l’on ait
P (X > k) ≤ 0.025. (9.2)
Le théorème 13 montre que l’on peut considérer que la variable aléatoire
X − np
Z=p
np(1 − p)
est gaussienne réduite. L’égalité (9.2) s’écrit encore
!
k − np
P Z>p ≤ 0.025.
np(1 − p)
Comme on a P (Z > ξ) = 0, 025 pour ξ = 1.96, on voit que la relation (9.2) équivaut à
√k−np > ξ ou encore à
np(1−p)
r
p 1 1 9
k > np + np(1 − p)ξ = 300 × + 300 × × × 0.025
10 10 10
= 40.18.
Exemple 9.3.9 Une compagnie d’assurances se propose d’assurer n clients contre un certain
risque. Notons Xi la somme qu’aura à verser la compagnie au i−ème client. C’est une variable
aléatoire qui est nulle au cas où ce client n’est pas sinistré. On peut en général considérer
que les variables aléatoires X1 , . . . , Xn sont indépendantes. Supposons, pour simplifier, qu’elles
obéissent toutes à une même loi d’espérance mathématique µ et de variance σ 2 . La variable
aléatoire X = X1 + . . . + Xn est la somme totale que la compagnie aura à verser pour les
indemnités de sinistre. D’après le théorème 12, on peut considérer, lorsque n est grand, que la
variable aléatoire Z = X−nµ
√
nσ
obéit à la loi gaussienne réduite.
Désignons par x la prime demandée par la compagnie à chaque client et supposons que
celle-ci désire que la somme nx − X qui lui restera à la fin de l’exercice soit supérieure ou
égale à une somme b (déterminée par ses frais de gestion et le bénéfice minimum qu’elle désire
faire). Cette compagnie détermine la prime x de la façon suivante : Elle se donne un nombre
ε très petit (par exemple ε = 0, 001) et elle choisit x assez grand pour que la probabilité de
l’événement (b ≤ nx − X) soit supérieure à 1 − ε. Or, on a :
P (b ≤ nx − X) = P (X ≤ nx − b)
X − nµ n(x − µ) − b n(x − µ) − b
= P √ ≤ √ =P Z≤ √ .
nσ nσ nσ
On cherche dans la table de la loi gaussienne réduite le nombre ξ vérifiant P (Z ≤ ξ) = 1 − ε et
l’on choisit x de façon que l’on ait ξ ≤ n(x−µ)−b
√
nσ
ou encore
b 1
x≥µ+ + √ σξ.
n n
Telle est la condition que doit remplir la prime x pour que la compagnie ait une probabilité
au moins égale à 1 − ξ de voir se produire l’événement désiré nx − X ≥ b. On remarquera que
cette prime peut être prise d’autant plus petite que les clients sont plus nombreux.
Comme dans le cas précédent, l’approximation revient à remplacer des sommes de pro-
babilités par des intégrales ; il est donc également nécessaire d’introduire une correction de
continuité.
Exemple 9.3.11 [11] Dans un service de réparation, on sait que l’on reçoit 9 appels à l’heure.
Quelle est la probabilité pour qu’il y ait au plus 60 appels pendant une période de 6 heures de
travail ?
Il s’agit ici d’une distribution de Poisson avec k = 9 par heure de travail.
Comme la période de référence est de 6 heures, λ = kt = 9 × 6 = 54.
λ > 20, on peut donc utiliser la loi Normale comme approximation avec :
√
E(X) = 54, σ(x) = 54 = 7.348 → X ∼ N(54; 7.348)
On nous demande P (X ≤ 60) = P Z ≤ 60−54 7.348
Si l’on veut tenir compte de la correction de passage du discret au continu, nous aurons :
60.5 − 54
P (X ≤ 60.5) = P Z ≤ = P (Z ≤ 0.884) = 0.8116
7.348
Exemple 9.3.12 Soit X une v.a.r. qui suit une loi de Poisson d’espérance mathématique
E(X) = 25.
1) Calculer les probabilités suivantes : P (X = 15) ; P (X > 20) ; P (15 < X ≤ 20) ; P (X ≤ 50)
2) Par quelle loi continue peut-on approcher la loi de X ? En déduire les valeurs approchées des
probabilités précédentes.
√
λ = 25(> 20) (condition respectée); X ∼ N(µ = λ = 25, σ = λ = 5)
X ∼ B(n, p)
✂❏
✂ ❏
✂ ❏
n ≥ 100 ✂ ❏ np ≥ 10
✂ ❏
p ≤ 0.1 ✂ ❏ np(1 − p) ≥ 10
✂ ❏
✂ ❏
✂ ❏
✂ ❏
✂ ❏
✂ ❫
❏
✂✌ p
X ∼ P(λ = np) √ np(1 − p)
X ∼ N(np,
X ∼ P(λ) ✲ X ∼ N(λ λ)
λ ≥ 20
• une loi discrète fini par une autre loi discrète finie : loi hypergéométrique H(N, n, p)
par loi binomiale B(n, p)
• une loi discrète finie par une loi discrète infinie : loi binomiale B(n, p) par loi de
Poisson P (λ)
• une loi discrète finie par une loi continue : loi binomiale B(n, p) pal loi normale
√
N(np, npq)
Ce problème se place dans le cadre où on souhaite remplacer la loi d’une variable aléatoire par
une loi d’usage plus simple.
Le théorème central-limit et son cas particulier - le théorème de Moivre-Laplace donnent la
base théorique pour ce fait. On peut résumer la convergence des loi par les schémas en Figure
9.1 et 9.2.
Chapitre 10
X + Y ∼ B(n + n′ , p).
Démonstration
k+l
X
P (X + Y = k + l) = P (X = j ∩ Y = k + l − j)
j=0
k+l
X
= P (X = j)P (Y = k + l − j)
j=0
(car les variables sont indépendantes)
k+l
X
Cnj pj q n−j Cnk+l−j
′
= ′ pk+l−j q n −k−l+j
j=0
(car les variables sont binômiales)
k+l
X
Cnj Cnk+l−j
′
= pk+l q n+n −(k+l) ′
j=0
k+l k+l n+n′ −(k+l)
= Cn+n ′p q
Xk+l
(car Cnj Cnk+l−j
′ = k+l
Cn+n ′
′ , par récurrence sur n + n ),
j=0
X + Y ∼ P(λ1 + λ2 ).
Démonstration
k
X
P (X + Y = k) = P [(X = i) ∩ (Y = k − i)]
i=0
les événements étant incompatibles 2 à 2
Xk
= P (X = i)P (Y = k − i) car événements indépendants
i=0
k
X λi1 e−λ1 λk−i
2 e
−λ2
=
i=0
i! (k − i)!
k
e−(λ1 +λ2 ) X k!
= λi1 λk−i
2 .
k! i=0
i!(k − i)!
or
k k
X k! X
λi1 λk−i
2 = Cki λi1 λ2k−i = (λ1 + λ2 )k formule de Newton
i=0
i!(k − i)! i=0
d’où
(λ1 + λ2 )k e−(λ1 +λ2 )
P (X + Y = k) = .
k!
et
q
aX ± bY ∼ N(aµ1 ± bµ2 , a2 σ12 + b2 σ22 ).
Démonstration
La densité de probabilité de X + Y est
Z ∞ (x−t−µ1 )2 (t−µ2 )2
1 − 2 1 − 2
h(x) = √ e 2σ1
√ e 2σ2 dt
−∞ 2πσ1 2πσ2
Z ∞ σ22 (x−t−µ1 )2 +σ12 (t−µ2 )2
1 − 2 σ2
= e 2σ1 2 dt.
2πσ1 σ2 −∞
Ensuite, le polynôme σ22 (x − t − µ1 )2 + σ12 (t − µ2 )2 de degré deux en t est mis sous forme
canonique :
σ22 (x − t − µ1 )2 + σ12 (t − µ2 )2 =
2
2 2 σ22 (x − µ1 ) + σ12 µ2 σ12 σ22 (x − µ1 − µ2 )2
(σ1 + σ2 ) t − + .
σ12 + σ22 σ12 + σ22
Ainsi,
(x−µ1 −µ2 )2
Z ∞
p 2 2
2 (x−µ )+σ 2 µ
2
1 − 2 +σ 2 ) σ12 + σ22 − σ2σ1 +σ 2
2 σ 2 t−
σ2
2
1
2
1 2
h(x) = p e 2(σ1 2 √ e 1 2 σ1 +σ2
dt
2π(σ12 + σ22 ) −∞ 2πσ1 σ2
(x−µ1 −µ2 )2
1 − 2 +σ 2 )
= p e 2(σ1 2 .
2π(σ12 + σ22 )
Et, le résultat demandé est ainsi prouvé.
joue dans les tests statistiques, notamment dans le test de l’ajustement d’une loi théorique à une
distribution observée, le test d’indépendance de deux caractères qualitatifs et pour déterminer
la loi de la variance d’un échantillon. Ce sont les test du khi-deux.
admet une loi de probabilité désignée par χ2 et appelée “Khi-deux” (ou “Khi-carré”) à
ν degrés de liberté.
Le seul paramètre de la loi χ2 est le nombre de degrés de liberté désigné par ν. C’est le
nombre de variables aléatoires indépendantes qui interviennent dans la définition de χ2 .
La table 8 (en annexe) et la fonction KHIDEU(k, ν, 1)(or CHIDIST(x,deg freedom)) d’un logi-
ciel tableur donnent la fonction de répartition F (χ2 ) = P (X ≤ χ2 ).
Forme
La distribution du χ2 est dissymétrique avec étalement vers la droite. Toutefois, elle tend à
devenir symétrique lorsque le nombre ν de degrés de liberté augmente.
Paramètres descriptifs
E(X) = ν, V ar(X) = 2ν.
X − Y ∼ χ2n−m (n > m)
A mesure que ν augmente, la loi du χ2 tend vers la loi normale, comme on peut constater sur
le graphique ci-dessous.
Donc, suivant le nombre ν de degrés de liberté, la Table 7 nous donne la valeur de χ2 telle que
P (X ≥ x) = α ⇔ P (X < x) = 1 − α
Exemple 10.2.3 [3] Soit la variable aléatoire X ∼ χ21 . Déterminer les valeurs de x de cette
variable pour lesquelles :
P (X ≥ x) = 0.05, P (X ≥ x) = 0.01
Cette disposition de la table est bien adapté au test de l’ajustement d’une loi théorique à
une distribution observée.
Calcul de probabilités
Comme pour toutes les variables d’usage courant, les fonctions de répartitions des variables χ2ν
sont tabulées.
Soit la relation F (u) = P (χ2ν < u) = p. La Table 8 de l’annexe donne, pour un certain
nombre de valeurs p, u en fonction de ν.
On remarquera que, la densité d’une variable χ2ν étant nulle en zéro et à gauche de zéro, on a :
F (u) = 0, si u ≤ 0
2
F (u) = P (χν < u) = P (0 < χ2ν < u), si u > 0
On remarquera également que si X ∼ N(0, 1) et si Y = X 2 ∼ χ21 , on a :
√ √
P (Y < u) = P (X 2 < u) = P (− u < X < u), u > 0
En particulier on pourra vérifier :
P (−1.960 < X < 1.960) = P (Y < (1.960)2 ) = P (Y < 3.841) = 95%
P (−2.576 < X < 2.576) = P (Y < (2.576)2 ) = P (Y < 6.635) = 99%
Définition 80 Soit X une variable aléatoire qui suit une loi normale centrée réduite et
Y une variable aléatoire suivant une loi de “Khi-deux” à n degrés de liberté : X ∼ N(0, 1)
et Y ∼ χ2n . X et Y étant indépendantes, on dit que la variable aléatoire Tn définie par
√
X X n
Tn = q = √
Y Y
n
Notation : T ∼ Tn
Densité de probabilité
Forme de la distribution
L’étude des variations de la densité d’une variable Tn montre que la distribution est en cloche,
symétrique par rapport à l’axe des ordonnées et un peut plus aplatie que la distribution normale
centrée réduite. Elle admet pour mode : 0.
Elle ne dépend que de la valeur n qui est son nombre de degrés de liberté. Plus le nombre de
degrés de liberté augmente, et plus la distribution d’une variable Tn est resserrée autour de
l’origine.
Paramètres descriptifs
E(Tn ) = 0 si n > 1
Comme la distribution d’une variable Tn de Student est un peut plus aplatie que la distribution
normale centrée réduite, alors la distribution d’une variable Tn , de Student, est toujours plus
dispersée que celle d’une variable normale centrée réduite. Cependant a mesure que n augmente,
la distribution de Student à n degrés de liberté se rapproche de plus en plus de celle de la loi
normale centrée réduite. On constate dans les tables de valeurs numérique que la différence
entre une loi de Student et une loi normale centrée réduite est, en ce qui concerne le calcul des
probabilités, peu sensible lorsque n = 30, presque négligeable lorsque n = 120.
En pratique : si T ∼ Tn pour n ≥ 30, on pourra écrire que T ∼ N(0, 1).
Les valeurs tabulées de la variable Tn dépendent d’un seuil α que l’on peut choisir et du nombre
de degré de liberté n.
• La Table 9 en annexe
La Table 9 donne la valeur tα,n définie par P (|T | > tα,n ) = α.
− n+1
t2 2
f (t) = C(n) 1 +
n
La table donne la probabilité α pour que T égale ou dépasse une valeur donnée t0 en
valeur absolue, en fonction du degré de liberté (d.d.l.) n.
• La Table 10. donne la valeurs de tn,α de n degrés de liberté ayant la probabilité α d’être
dépassée.
Exemple 10.2.6 – Pour n = 11, on a P (Tn < 1.796) = 1 − P (Tn > 1.796). Pour
d.d.l. n = 11 et α = 1.796 la Table 10. donne p = 0.05 =⇒
P (Tn < 1.796) = 1 − P (Tn > 1.796) = 1 − 0.05 = 0.95 = 95%.
– Pour d.d.l. n = 11 de la Table 10. on trouve la probabilité P (Tn < 2.201) comme
suit : Pour d.d.l. n = 11 et α = 2.201 la Table 10. donne p = 0.025, alors
P (Tn < 2.201) = 1 − P (Tn > 2.201) = 1 − 0.025 = 0.975 = 97.5%
Exemple 10.2.7 – Pour n = 11, on a : P (Tn < 0.540) = 70%; P (Tn < 1.796) = 95%;
P (Tn < 2.201) = 97.5%
– Pour n = 16, on a : P (Tn < 0.691) = 75% ; P (Tn < −0.691) = P (Tn > 0.691) = 25%
– Pour n = 25, on a :
P (|Tn | < 2.060) = P (2.060 < Tn < 2.060)
= F (2.060) − F (−2.060)
= F (2.060 − [1 − F (2.060)]
= 2F (2.060) − 1
= 2 × 0.975 − 1
= 95%
Si on utilise la Table 9. qui donne P (|Tn | > t0 ) = α, on a : n = 25,
P (|Tn | < 2.060) = 1 − P (|Tn | > 2.060)
pour t0 = 2.060 et d.d.l. n = 25 de la Table 9. la probabilité α = 0.05, alors
P (|Tn | < 2.060) = 1 − P (|Tn | > 2.060)
= 1 − 0.05 = 0.95 = 95%
Schémas
Événements
Combinatoire
A
n!
Arrangements Apn = (n−p)!
Āpn = np
choix, ordre
P
p!
Permutations Pn = n! P̄pp1 p2 ...pn = p1 !p2 !...pn !
ordre
C
n! p (n+p−1)!
Combinaisons Cnp = p!(n−p)!
C̄np = Cn+p−1 = (n−1)!p!
choix
Probabilités
loi de multiplication
A et B indépendants P (A ∩ B) = P (A) ∗ P (B)
A et B dépendants P (A ∩ B) = P (A) ∗ P (B|A)
loi d’addition
A et B incompatibles P (A ∪ B) = P (A) + P (B)
A et B compatibles P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Modèle d’urne
n!
successif sans remise Apn = (n−p)!
Ann = Pn = n!
n!
simultané Cnp = (n−p)!p!
1
k C n−k
CN k C n−k
CN
P (Ek ) Cnk pk (1 − p)n−k 1
n
CN
N 2 1N
n
CN
2
successif
successif avec
sans simultané
remise
remise
choix d’empla-
P̄nn1 ,n2 ,...,nk P̄nn1 ,n2 ,...,nk —–
cements
n n n n n
choix AN1 AN2 ...ANk CN1 .CN2 ...C nk Nk
pn1 1 .pn2 2 . . . pnk k 1 2
An
k 1 2
n
CN
d’éléments N
n n n n n n
CN1 CN2 ...CNk CN1 CN2 ...CNk
P (A(n1 , n2 , . . . , nk )) P̄nn1 ,n2 ,...,nk pn1 1 .pn2 2 . . . pnk k 1 2
n
CN
k 1 2
n
CN
k
Nombre de ti-
Mode de tirage Définition de la variable aléatoire X Loi
rages
Géometrique
n>1 avec remise Nombre de tirages pour le I succès
G(p)
Poisson P(λ),
Nombre de succès dans l’intervalle t
λ=p∗t
Hypergéometrique
sans remise Nombre de succès parmi les n tirages
H(N, n, p)
Uniforme 1 N +1 N 2 −1
{1, . . . , N } P (X = k) = 2 12
U(N ) N
Bernoulli P (X = 0) = q
{0, 1} p pq
B(1, p) et P (X = 1) = p
Binomiale n k
{0, 1, . . . , n} P (X = k) = p q n−k np npq
B(n, p) k
M
Hypergéométrique × N −M
[max(0; n − N + M ); min(n; M )] P (X = k) = k
n−k
np npq N −n
H(N, n, p) N
n
N −1
Géométrique 1 q
N P (X = k) = p q k−1 p2
G(p) ou R(1, p) p
Pascal k−1 r r rq
{k ∈ N; k ≥ r} P (X = k) = p q k−r p2
R(r, p) r−1 p
P (X = k) =
Pascal sans remise
M
× Nk−r N +1 N (N +1)(M −r+1)
{k ∈ N; r ≤ k ≤ N − M + r} r−1
−M
M −r+1 rM +1
rq (M +1)2 (M +2)
S(N, r, p) ×
N N −k+1
k−1
Poisson k
N P (X = k) = e−λ λk! λ λ
P(λ)
Laplace -
X ∼ N(µ, σ) R Table de N(0, 1) Table de N(0, 1) µ σ2
Gauss
Normale
centrée X ∼ N(0, 1) R Table de N(0, 1) Table de N(0, 1) 0 1
réduite
∼ χ2ν
XP R
Khi-deux Table de χ2ν ν 2ν
= νi=1 Xi2 X ∼ N(0, 1)
T ∼ Tn
= √XY n
Student n R Table de Tn 0 n−2
X ∼ N(0, 1)
Y ∼ χ2n
Additivité
Convergence en loi
√
Pour ν ≥ 30 X ∼ χ2ν → N(ν, 2ν).
Pour n ≥ 30 T ∼ Tn → N(0, 1).
Bibliographie
[1] Anderson, Sweeney et Williams. Statistiques pour l’économie et la gestion, 2010, De Boeck,
Bruxelles
[2] Banks, J., et Meikes, R.G. Handbook of Tables and Graphs for the Industrial Engineer and
Manager, 1984, Upper Saddle River, NJ, Prentice-Hall.
[4] Berrondo-Agrell Marie et Fourastie Jacqueline. Pour comprendre les probabilités, 1994,
Paris, Hachette, ”Les Fondamentaux”.
[6] Burington, R.S., et May, D.C. Handbook of Probability and Statistics with Tables, 1970. 2e
éd., New York, McGraw-Hill Book Company.
[12] Grais B. La statistique et l’intreprise. Les techniques statistiques, tome 2 : Les instruments
d’analyse. Economica, Paris, 1987.
[14] Jaffard P. Initiation aux meéthodes de la statistique et du calcul des probabilités. Masson,
Paris, 1990.
[17] Lipschitz, Seymour. Probabilité. Cours et problèmes, 1993, Paris, éditions McGraw-Hill,
série Schaum.
[18] Micula S. Probability and statistics for computational sciences. Cluj University Press,
Cluj-Napoca, 2009.
[19] Saporta, Gilbert. Probabilité, analyse des données et statistique, 2006, Paris, éditions
Technip.
[20] Spiegel, Murray R. Probabilité et statistique. Cours et problèmes, 1981, Paris, éditions
McGraw-Hill, série Schaum.
Annexe
Tables statistiques
1. Table 1. Distribution de la loi binomiale [6]
11. Table 10. Distribution Tn (Loi de Student) : valeurs de Tn ayant la probabilité d’être
dépassée
P (X = k) = Cnk (1 − p)n−r
k
Fournit la probabilité P (X = k) = e−λ λk! pour X ∼ P(λ)
x
X e−λ
Fournit la probabilité P (X ≤ x) = λr pour X ∼ P(λ)
r=0
r!
1 2
f (t) = f (−t) = √ e−t /2
2π
Exemples :
f (1.3) = 0.1714
f (−2.7) = f (2.7) = 0.0104.
Nota. — La table donne les valeurs de π(t) pour z positif. Lorsque z est négatif il faut
prendre le complément à l’unité de la valeur lue dans la table.
Exemple : pour t = 1.37 π(t) = 0.9147
pour t = −1.37 π(t) = π(−1.37) = 1 − π(1.37) = 1 − 0.9147 = 0.0853.
U ∼ N(0, 1)
Pour P < 0.5 (colonne de gauche et ligne supérieure) les fractiles sont négatifs.
Pour P > 0.5 (colonne de droite et ligne inférieure) les fractiles sont positifs.
1 − F (χ2 ) = P (X ≥ χ2 ) = P
Soit T une variable de Student à ν degrés de liberté, de densité ρ. Si u est un nombre positif
et si on pose :
Fn (u) = P (T < u) = p