Synthese Probabilite Et Statistique
Synthese Probabilite Et Statistique
Synthese Probabilite Et Statistique
Thomas Rixen
January 8, 2022
Contents
1 Notion de base 3
1.1 Expérience aléatoire ou épreuve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Évènement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Relation entre événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Composition d’événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Algèbre des événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Notion de probabilité 4
2.1 Définition axiomatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Probabilité Conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 Théorème des probabilités composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4 Théorème des probabilité totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.5 Théorème des Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.6 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.6.1 propriété des l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3 Variable aléatoires 6
3.1 Variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.1 Fonction de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.3 Loi de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.1.4 Répétition de l’épreuve de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.1.5 Loi de poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2 Variable aléatoire continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2.2 Fonction de densité de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2.3 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2.5 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Approximation d’une loi par une autre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4 Grandeurs caractéristiques 12
4.1 Mode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2 Médiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.3 Quantiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.4 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.4.1 Espérance conditionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4.2 Existence d’une espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.5 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.5.1 Variance conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.5.2 Existance d’une variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1
5 Fonction d’une variable aléatoire 15
5.1 Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.1.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.1.2 Cas des fonctions strictement monotones . . . . . . . . . . . . . . . . . . . . . . . . 16
5.1.3 Cas des fonctions linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.2 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.2.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.2.2 cas des fonctions linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3.2 Cas linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.4 Linéarisassions d’une fonction non linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6 Couples aléatoires 18
6.1 Domaine de variation conjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.2 Distribution conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.2.2 Fonction de probabilité conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.2.3 Fonction de répartition de probabilité conjointe . . . . . . . . . . . . . . . . . . . . 19
6.3 Probabilité d’un événement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.4 Distribution marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.4.1 fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.4.2 Fonctions de (densité de) probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
6.5 Distribution conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.5.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.5.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.6 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
6.7 Caractéristique du couple aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
6.7.1 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
6.7.2 Corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
6.7.3 Espérance et variance conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.8 Couple aléatoire normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.8.1 Fonction de densité marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.8.2 Fonction de densité conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.8.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7 Vecteurs aléatoires 24
7.1 débrouille toi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
• Je ne suis pas un pro en proba et stat et je galère comme toi à essayer de comprendre la matière
du coup. J’ai fait de mon mieux mais il y a peut être des fautes, du coup si il y a des différence
avec le cours ne fait confiance que au cours.
• Si tu gères un peu LATEXet que tu veux modifier comme tu le souhaites la synthèse je te donne
le lien du projet overleaf en visiteur. https://fr.overleaf.com/read/mdqktsytnjjn
2
1 Notion de base
1.1 Expérience aléatoire ou épreuve
• Ω est l’ensemble des résultats possible, il peut être défini par une énumération des objets, par
une propriété caractérisant ces objets.
• Ω peut aussi être un ensemble fini, une infinité dénombrable ou non dénombrable d’éléments.
1.2 Évènement
1.2.1 Relation entre événements
• L’inclusion de A dans B (A ⊂ B), éléments de A appartement aussi à B.
• L’égalité (A = B), éléments de A sont les mêmes que les éléments de B.
3
2 Notion de probabilité
2.1 Définition axiomatique
1. La probabilité d’un événement A quelconque est positive ou nulle
P (A) ≥ 0
P (Ω) = 1
3. Si deux événements sont incompatibles, la probabilité de leur union est égale à la somme de leur
probabilité.
P (A ∪ B) = P (A) + P (B)
• P (A∗ ) = 1 − P (A)
• P (⋃ni=1 Ai ) = ∑ni=1 P (Ai ), si tout les événements sont incompatible deux à deux
• P (A ∪ B) = P (A) + P (B) − P (A ∩ B), si les événement ne sont pas incompatible
P (A ∩ B)
P (A∣B) =
P (B)
Il est évidement possible de calculer la probabilité d’événement contraire, tels que P (A∗ ∣B) et
P (A∣B ∗ ):
P (A∗ ∩ B)
P (A∣B) =
P (B)
P (A ∩ B ∗ )
P (A∣B) =
P (B ∗ )
Rappel: P (A∗ ) = 1 − P (A)
P (A ∪ B) = P (A∣B)P (B)
Consiste à calculer P(A) comme une somme pondérée des probabilités conditionnelles P (A∣Bi ), les
poids étant donnés par les probabilité P (Bi ). Voir figure 2.4 page 33 du syllabus
4
2.5 Théorème des Bayes
Si l’ensemble B1 , B2 , ..., Bn est une partition de Ω alors :
P (A∣Bi P (Bi )
P (Bi ∣A) = n
∑j=1 P (A∣Bj )P (Bj )
• probabilité à priori : les probabilités P (Bi ), celle que l’on dispose avant que l’expérience aléatoire
ne soit réalisée.
• probabilité a posteriori Si l’on fait l’expérience et que A se réalise on peut alors calculer P (Bi ∣A)
• Les évènement Bi sont toutes les causes possibles qui sot responsables de la réalisation de A.
2.6 Indépendance
Si A et B sont indépendant (A ⊥ B), si l’on sait que B se réalise cela ne nous donne aucune information
sur la probabilité de A de se réaliser.
A ⊥ B ⇔ P (A∣B) = P (A)
La probabilité que A se réalise est la même si l’on sait que B est réalisé ou si l’on ne le sait pas
A ⊥ B ⇔ P (A ∩ B) = P (A)P (B)
Attention: Ne pas confondre indépendance (A ⊥ B) et incompatibilité (A ∩ B = Ø)
• A ⊥ B ⇔ P (A ∩ B) = P (A)P (B)
• A ∩ B = Ø ⇔ P (A ∪ B) = P (A) + P (B)
• Si A ⊥ B, alors:
A ⊥ B ∗ ; A∗ ⊥ B; A∗ ⊥ B ∗
5
3 Variable aléatoires
Une variable aléatoire X est une application de Ω dans R telle qu’à tout ω correspond une valeur
X(ω) = x.
⎧
⎪P (X = x)
⎪ si x ∈ RX .
p(x) = ⎨
⎪
⎪0 si x ∉ RX
⎩
p(x) ≥ 0
F (x) = P (X ≤ x)
• Les valeurs de la fonction F (x) sont des sommes cumulées des valeurs de la fonction p(x):
F (x) = ∑ p(xi )
xi ≤x
F (−∞) = 0; F (+∞) = 1
• Fonction F (x) est une fonction en ”escalier”. (Voir graphique 3.3 page 58 )
6
3.1.3 Loi de Bernouilli
La réalisation ou non d’un événement A. (Ω constitué de deux événement A et A∗ . On associe le
nombre 1 à l’événement A et le nombre 0 à l’événement A∗ . De telle sorte que P (A) ∶ P (X = 1) = p et
P (A∗ ) = P (X = 0) = 1 − p
X ∼ Be(p)
⎧
⎪p si x = 1
⎪
⎪
⎪
p(x) = ⎨1 − p si x = 0
⎪
⎪
⎪
⎩0
⎪ autrement
Loi binomiale
La loi binomiale est la répétition n épreuve de Bernouilli. Pour lesquelles on s’intéresse au nombre
X de fois où l’épreuve est une réussite. X n’est rien d’autre que la somme des résultats au terme de
ces épreuves, puisque lorsque une expérience de Bernouilli est réussi X = 1 et X = 0 lorsque elle est ratée.
X ∼ Bi(n, p)
X = Y1 + ... + Yn ∼ Bi(n, p)
Si l’on veut connaı̂tre le nombre d’échecs, alors n − X ∼ Bi(n, 1 − p)
Fonction de probabilité:
⎧
⎪C x px (1 − p)n−x
⎪ si x = 0, 1, 2, ..., n
p(x) = ⎨ n
⎪
⎪0 autrement
⎩
n!
avec Cnx = x!(n−x)!
⎧
⎪p(0) = (1 − p)n
⎪
⎨ p
⎪
⎪p(x) = p(x − 1)( 1−p )( n−x+1
x
)
⎩
Approximation:
La loi de Poisson approxime la loi binomiale X ∼ Bi(n, p) lorsque n est grand et p est petit, le produit
np étant une valeur finie.
Loi hypergéométrique
Si l’on voit la loi binomiale est équivalente à un tirage avec remise de n objets dans un lot de N
objets. Alors la loi hypergéométrique représente un tirage sans remise. C’est donc une répétition de
l’épreuve de Bernouilli mais chaque épreuve à une probabilité de réussite qui va dépendre du résultat
des épreuves précédentes.
X ∼ Hy(N, n, k)
avec:
7
• N → nombretotald′ objet
• n → nombred′ objetquel′ ontire
• k → parmilesN objetilyenakquiréaliseuncertainévénement
Fonction de probabilité:
C x C n−x
⎪ kC nN −k px (1 − p)n−x
⎧
⎪ si x = max(0, n + k − N ), ..., min(n, k)
p(x) = ⎨ N
⎪
⎪0 autrement
⎩
n!
avec Cnx = x!(n−x)!
Approximation:
k
Si N /n ≥ 20, la loi hypergéométrique peut être approximée par X ∼ Bi(n, N )
Loi géométrique
La variable aléatoire X, loi géométrique, est une répétition de l’épreuve de Bernouilli, où l’on
s’intéresse au nombre X de fois qu’il faut répéter cette épreuve pour obtenir une première réussite. Si
ces répétition sont indépendante et on la même probabilité p de réussite. La loi géométrique est un
processus sans mémoire
X ∼ Ge(p)
Fonction de probabilité:
⎧
⎪p(1 − p)x−1
⎪ si x = 1, 2, ...
p(x) = ⎨
⎪
⎪0 autrement
⎩
Fonction de répartition:
F (x) = 1 − (1 − p)x x = 1, 2, ...
Il n’y a pas de borne supérieur pour la valeur x; on répète l’expérience de Bernouilli jusqu’à obtenir
une première réussite.
Loi de Pascal
La loi de Pascale est une généralisation de de la loi géométrique. Où l’on s’intéresse au nombre de
répétition d’expérience de Bernouilli nécessaire pour obtenir k réussites (x ≥ k). On peut voir la loi de
Pascal comme une somme étant la somme de k variable géométrique indépendantes.
X ∼ P a(k, p)
X = Y1 + ... + Yn ∼ Bi(n, p)
Fonction de probabilité:
⎧
⎪C k−1 pk (1 − p)x−k
⎪ si x = k, k + 1, ...
p(x) = ⎨ x−1
⎪
⎪0 autrement
⎩
8
n!
avec Cnx = x!(n−x)!
⎧
⎪p(k) = pk
⎪
⎨ x−1
⎪
⎪p(x) = p(x − 1)(1 − p)( x−k )
⎩
X ∼ P o(µ)
Fonction de probabilité:
⎧ e−µ µx
⎪
⎪ x! si x = 0, 1, 2, ...
p(x) = ⎨
⎩0 autrement
⎪
⎪
⎧
⎪p(0) = e−µ
⎪
⎨
⎪
⎪p(x) = p(x − 1)( µx )
⎩
Cette loi est souvent utiliser pour modéliser le nombre d’occurrence d’un événement sur une unité
d’espace ou de temps. Comme le paramètre µ est dimensionnel. On peut donc voir µ comme le pro-
duit d’une intensité λ et d’une grandeur physique quelconque.
Exemple: Dans le cas d’une mesure dans le temps, on aura ainsi µ = λt, où t est l’intervalle de
temps sur lequel le nombre d’occurrences x est compté. Et λ est intensité dont les unit”s sont l’inverse
des unités du tempst. (x le nombre d’accident mortel, sur une journée (intervalle de temps t))
P (a ≤ X ≤ b) = F (b) − F (a)
• La fonction F (x) est continue sur R, ce qui veut dire que pour une variable aléatoire continue,
étant donné que P (X = x) = 0, on aura F (x) = P (X ≤ x) = P (X < x)
Voir graphique 3.6 (page 73)
9
3.2.2 Fonction de densité de probabilité
La fonction de densité de probabilité est la dérivée de la fonction de répartition F (x), qui est donc la
pense de F (x) mesurée au point x.
dF (x)
f (x) =
dx
• f (x) ne prend que des valeurs positives ou nulles (cette fonction peut prendre des valeurs
supérieurs à 1 ce ne sont pas de probabilités)
f (x) ≤ 0
La probabilité de se trouver dans l’intervalle [a, b] s’obtient en calculant l’intégrale définie de f (x)
sur cette intervalle
b
P (a ≤ X ≤ b) = ∫ f (x)dx
a
X ∼ U n(a, b)
⎧ ⎧
⎪0 si x < a
⎪ 1
⎪ si x ∈ [a, b] ⎪
⎪
⎪ x−a
f (x) = ⎨ b−a ; F (x) = ⎨ b−a si x ∈ [a, b]
⎪
⎪0 autrement ⎪
⎪
⎪
⎩ ⎩1
⎪ si x > b
3.2.4
Lorsque une variable aléatoire X ne prend que des valeurs non négatives alors on dit que elle suit une
loi exponentielle de paramètre λ.
X ∼ Exp(λ)
où λ > 0 est un paramètre qui prend le sens d’une intensité.
⎧ ⎧
⎪λ exp −λx
⎪ si x ≥ 0 ⎪0
⎪ si x < 0
f (x) = ⎨ ; F (x) = ⎨
⎪
⎪0 autrement ⎪
⎪1 − exp −λx si x ≥ b
⎩ ⎩
On notera que:
• La loi exponentielle est un processus sans mémoire
10
• La la exponentielle est souvent associer à la loi de poisson souvent pour calculer des problèmes
de fiabilité (temps séparant deux pannes consécutives).
Exemple: Si le nombre Y d’occurrence d’une pannes sur un intervalle de temps x suit la loi de
poisson Y ∼ P o(λx), alors le temps X séparant deux pannes consécutif suit une loi exponentielle
X ∼ Exp(λ)
X ∼ N (µ, σ 2 )
avec −∞ < µ < ∞ et σ 2 > 0
• µ est appelé moyenne et s’exprime dans les mêmes unités que X
√
• σ 2 est appelé variance et s’exprime dans le carré des unités de X ( σ 2 est appelé écart-type)
1 1 x−µ 2
f (x) = √ e− 2 ( σ )
σ 2π
Il n’y a pas de primitive pour la fonction f (x). Donc pas d’expression analytique pour la fonction de
répartition F (x). C’est pourquoi pour éviter de faire des calcules de F (x) on défini la loi normale
réduite:
Z ∼ N (0, 1)
avec donc µ = 0 et σ 2 = 1. Z est donc une transformation de X ∼ N (µ, σ 2 )
X −µ
Z= ∼ N (0, 1)
σ
X −µ x−µ x−µ
P (X ≤ x) = P ( ≤ ) = P (Z ≤ )
σ σ σ
De plus, comme la loi normale est symétriques par rapport à µ ça ne sert à rien de préciser les valeurs
pour z ≥ 0 et z ≤ 0. Dans les tables il n’y a que les valeurs fZ (z) et FZ (z) pour z ≥ 0
11
4 Grandeurs caractéristiques
4.1 Mode
Le mode xm d’une variable aléatoire X discrète est la valeur la plus probable que peut prendre cette
variable; dans le cas d’une variable continue on parle de valeur la plus vraisemblable. C’est donc le
maximum de p(x) ou de f (x) .
4.2 Médiane
La médiane d’une variable aléatoire X est une mesure de la centralité de cette variable. C’est donc la
∼
valeur m assurant que l’on ait une chance sur deux d’observer une valeur x plus petite
∼
ou égale à m.
D’un point de vue géométrique, la médiane est une valeur permettant de couper la surface sous la
fonction f (x) en deux morceaux dont les airs sont égales
∼ ∼ 1
P (X ≤ m) ≡ F (m) =
2
Voir graphique 4.3 (page 114)
Pour une variable discrète la médiane ne peut être identifier que si l’une des valeur de la fonction F (x)
est égale à 1/2.
4.3 Quantiles
∼
Un quantiles est une généralisation de la médiane m). La médiane n’est rien d’autre que le 0.5-quantile.
Le p-quantile d’une variable X est la valeur xp telle que l’on air une probabilité p d’observer
une valeur x qui soit inférieur ou égale à xp
P (X ≤ xp ) = p
Voir: graphique 4.5 (page 116)
Comme pour la médiane, le p-quantile ne peut être identifiée pour une variable aléatoire discrète que
si l’une des valeurs de la fonction de répartition F (x) est égale à p.
On distingue également différent type de quantiles. (ex: médiane, quartiles, déciles, centiles).
Les quantilies sont souvent utiliser lorsque on veut définir un intervalle de valeurs à l’intérieur duquel
on a une probabilité p de se situer.
4.4 Espérance
L’espérance E[X](que l’on note aussi µ), est la valeur que l’on s’attend à observer en moyenne
pour la variable aléatoire X.
⎧ n
⎪
⎪
⎪ ∑ xi p(xi ) cas discret
⎪
⎪
⎪i=1
⎪
µ = E[X] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎩ −∞ xf (x)dx cas continu
⎪
⎪∫
L’espérance peut être vue comme la moyenne pondérée des valeurs xi que peut prendre la variable
aléatoire X.
12
4.4.1 Espérance conditionnel
L’espérance s’applique au cas des distributions conditionnelles:
⎧ n
⎪
⎪
⎪ ∑ xi p(xi ∣A) cas discret
⎪
⎪
⎪i=1
⎪
µX∣A = E[X∣A] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎪
⎪
⎩∫ xf (x∣A)dx cas continu
−∞
4.5 Variance
La variance V ar[x] (ou encore σ 2 d’une variable aléatoire Xest une mesure de la dispersion des valeurs
de cette variable autour de sa moyenne. C’est donc une grandeur caractérisant le caractère
à quel point les valeurs de la variable aléatoire sont plus ou moins loin de leur valeur
moyen.
⎧ n
⎪
⎪
⎪
⎪ ∑ (xi − µ)2 p(xi ) cas discret
⎪
⎪
⎪i=1
2
σ = V ar[X] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪ 2
⎩ −∞ (xi − µ) f (x)dx cas continu
⎪
⎪∫
Mais on calculera le plus souvent la variance avec la formule suivante:
⎛ n 2 ⎞ 2
+∞
V ar[X] = ∑ x p(xi ) − µ ; V ar[X] = ∫ x2 f (x)dx − µ2
⎝ i=1 i ⎠ −∞
La variance peut être vue comme étant la moyenne pondérée du carré des déviations xi − µ que peut
prendre la variable aléatoire X autour de sa moyenne.
σ 2 est une valeur toujours positive ou nulle. Mais σ 2 est un cas dégénéré ou toutes les valeurs de la
variable aléatoire sont égale à la même constante.
⎧ n
⎪ 2
⎪
⎪
⎪ ∑(xi − µ) p(xi ∣A) cas discret
⎪
⎪i=1
⎪
2
σX∣A = V ar[X∣A] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎩ −∞ (x − µX∣A f (x∣A)dx cas continu
⎪
⎪∫
13
4.5.2 Existance d’une variance
Une condition assurant que le calcule de la variance conduit toujours à une valeur finie est la conver-
gence absolue de la somme ou de l’intégrale:
∞ +∞
2
∑(xi − µ) p(xi ) < +∞ ; ∫ (xi − µ)2 f (x)dx < +∞
i=1 −∞
14
5 Fonction d’une variable aléatoire
Certaine variable ne soit pas directement observable, car étant liée à l’une des ces variables par
l’intermédiaire d’une fonction connue. On a donc X une variable aléatoire et Y = h(X) une fonc-
tion de X. Et on veut savoir comment obtenir la loi de probabilité de Y , l’espérance ou la variance de
Y.
Pour le cas discret et continu on cherche à identifier des événement A et B équivalant sur les vari-
able Y = h(X) et X, de manière à ce que P (A) = P (B)
Cas discret
• On défini un événement A défini sur Y , qui pour la variable Y prenne un valeur particulière y.
• On défini un événement B défini sur X, qui prend toutes les valeurs de x qui sont égale à y lorsque
l’on applique la transformation (h(.)) sur les valeurs de x avec h(.) une fonction quelconque.
⎧ =P (B)
⎪A ≡ (Y = y)
⎪ =P (A)
⎨ Ô⇒ pY (y) = ∑ pX (x)
⎪
⎪B ≡ (x ∶ h(x) = y) x∈B
⎩
Cas continu
Comme dans le cas continue la probabilité P (A) soit égale à une valeur est égale à 0. On doit considérer
les valeurs de Y et de X plus petites ou égales à y.
• On défini un événement A défini sur Y , qui pour la variable Y prenne les valeurs plus petite que
y.
• On défini un événement B défini sur X, qui prend toutes les valeurs de x qui plus petites ou
égales à y lorsque l’on applique la transformation (h(.)) sur les valeurs de x avec h(.) une fonction
quelconque.
• Si B est équivalent à A ≡ (Y ≤ y) alors P (B) = P (A) ≡ pY (y)
⎧ =P (B)
⎪A ≡ (Y ≤ y)
⎪ =P (A)
⎨ Ô⇒ FY (y) = ∫ fX (x)dx
⎪
⎪B ≡ (x ∶ h(x) ≤ y) x∈B
⎩
15
5.1.2 Cas des fonctions strictement monotones
Lorsque l’on sait que la fonction est monotone croissante ou décroissante (h(.) ↗ ou h(.) ↘) Il est
donc possible de définir la fonction réciproque X = h−1 (Y ), car toute valeur X est associée une seul
valeur pour Y . P (X = x) = P (Y = h(x))
RRR −1 R
dh (y) RRRR
fY (y) = fX (h−1 (y))RRRRR R
RRR dy RRRRR
5.2 Espérance
5.2.1 Cas général
On obtient facilement l’espérance E[Y ]delavariableY àpartirdelaf onctionde(densitéde)probabilitédevavariableX
⎧ n
⎪
⎪
⎪ ∑ h(xi )p(xi ) cas discret
⎪
⎪
⎪i=1
⎪
E[Y ] = E[h(X)] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎪
⎪
⎩∫ h(x)f (x)dx cas continu
−∞
C’est formule sont valable pour n’importe quelle fonction h(.) qui lie les variables aléatoires X et Y .
Elle permettent de déterminer E[Y ] sans avoir à spécifier pY (y) ou FY (y)
E[Y ] = aE[X] + b
On peut étendre cette fonction à une somme de fonctions quelconques appliqué sur la variable X:
n n
E[ ∑ hi (X)] = ∑ E[hi (X)]
i=1 i=1
E[aX] = aE[X]
Ô⇒ Espérance d’une somme est la somme des espérances
5.3 Variance
On peut obtenir la variance d’une fonction aléatoire Y = h(X) sans passer par pY (y) ou FY (y)
16
5.3.2 Cas linéaire
Lorsque la fonction est linéaire Y = aX + b, on a que:
V ar[Y ] = a2 V ar[X]
Il est possible d’avoir une meilleur approximation pour l’espérance et la variance de Y = h(X) en
augmentant l’ordre du polynôme approximant la fonction h(x)
17
6 Couples aléatoires
6.1 Domaine de variation conjoint
Le Domaine de variation conjoint RXY est l’ensemble des couples de valeurs (x,y) possibles simul-
tanément par les variables X et Y. Tout événement situé à l’extérieur de RXY est l’événement impos-
sible. Avec RXY le produit cartésien RX × RY .
Exemple: la taille et le poids dans la population, on ne peut pas déterminer directement la taille d’une
personne en connaissant son poids
F (x, y) = P (X ≤ x ∩ Y ≤ y)
p(x, y) ≥ 0
∑ ∑ p(xi , yj ) = 1
i j
• p(x, y) peut être représenté sous forme de tableau, formules, diagramme en bâtonnets
Voir figure 6.3 (page(161)
18
6.2.3 Fonction de répartition de probabilité conjointe
Pour un couple de variables continues, f (x, y) peut s’obtenir à partir de la foncions de répartition
F (x, y)
B 2 F (x, y)
f (x, y) =
BxBy
F (x, y) s’obtient à partir de f (x, y) grâce à la double intégration
x y
F (x, y) = ∫ ∫ f (u, v)dvdu
−∞ −∞
f (x, y) ≥ 0
• la double intégralle de la fonction f (x, y) sur R2 est égale à l’unité (intégrale double donne un
volume):
+∞ +∞
∫ ∫ f (x, y)dydx = 1
−∞ −∞
FX (x) = P (X ≤ x) ; FY (y) = P (Y ≤ y)
Fonction de probabilité:
pX (x) = ∑ p(x, yj ) ; pY (y) = ∑ p(xi , y)
j i
19
Fonction de densité de probabilité:
+∞ +∞
fX (x) = ∫ f (x, y)dy ; fY (y) = ∫ f (x, y)dx
−∞ −∞
On élimine l’un des deux variables en sommant (intégrant la fonction de (densité de) probabilité
conjointe par rapport à cette variable.
De plus les fonctions de répartition et de (densité de) probabilité marginales peuvent s’obtenir l’une à
partir de l’autre par sommation e différentiation (cas discret) ou par dérivation (cas continu).
p(x, y) p(x, y)
pX (x∣y) = ; pY (y∣x) =
pY (y) pX (x)
f (x, y) f (x, y)
fX (x∣y) = ; fY (y∣x) =
fY (y) fX (x)
La fonction de répartition conditionnelles est le même résonne ment que pour le cas discret mais avec
des intégrales.
x y
FX (x∣y) = ∫ fX (u∣y)du ; FY (y∣x) = ∫ fY (u∣x)du
−∞ −∞
il faut bien savoir que pour les probabilité conditionnelles, par exemple pour FX (x∣y) on a bien y est
une valeur fixe et on s’intéresse au différent résultat pour les différentes valeurs de x
6.6 Indépendance
L’indépendance entre deux variables X et Y (X ⊥ Y ) stipule que si l’on sait que l’événement X = x ou
Y = y s’est réalisé, cela ne modifie en rien la distribution de l’autre variable.
Les variable d’un couple aléatoire (discret ou continu) sont indépendante si:
⎧
⎪p(x, y) = pX (x)pY (y)
⎪
⎪
⎪
X ⊥Y ⇐⇒ ⎨
⎪
⎪
⎪
⎩f (x, y) = fX (x)fY (y)
⎪
Si il existe un seul couple de valeur (x, y) pour lequel on a pX (x∣y) ≠ pX (x) ou pY (y∣x) ≠ pY (y), alors
X MY
20
6.7 Caractéristique du couple aléatoire
6.7.1 Covariance
La Covariance sert à mesurer ”l’intensité” avec laquelle deux variables sont liées, celle intencité
est note Cov[X, Y ] ou encore σXY . Et s’obtient avec:
⎧
⎪
⎪
⎪∑ ∑(xi − µX )(yj − µY )p(xi , yj ) cas discret
⎪
⎪
⎪ i j
⎪
σXY = Cov[X, Y ] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎪ (x − µX )(y − µY )f (x, y)dydx cas continu
⎪∫
⎩ −∞
Mais on calcule plus souvent la covariance avec cette formule:
⎧
⎪(∑ ∑ xi yi p(xi , yi )) − µX µY
⎪
⎪
⎪
⎪ i j
⎪
⎪
σXY =⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎪ xyf (x, y)dydx
⎩∫−∞
⎪
Il est également possible d’exprimer la covariance en terme d’espérance d’une fonction du couple (X, Y ).
Dans le cas discret on peut voir la covariance comme une somme pondérée des produits des déviations
xi − µX et yj − µY des deux variables autour de leur moyenne.
• σXY > 0 → association linéaire positive
X ⊥Y Ô⇒ σXY = 0
Voir graphique 6.21 (page 189). Il faut voir ça comme le jeux de société bomboléo. Avec µX et µY
étant le point d’équilibre au centre, les quadrant A, B, C, D représente une plaque sur laquelle sont en
équilibre des poids (les probabilité p(xi , yi )
6.7.2 Corrélation
Le coefficient de corrélation (ρXY ou Corr[X, Y ]), remédie au problème d’unité de la covariance
en standardisant sa valeur, il est donc adimentionnel:
σXY
ρXY =
σX σY
avec −1 ≤ ρXY ≤ 1
• ρXY > 0 → corrélation positive
• ρXY < 0 → corrélation négative
X ⊥Y Ô⇒ ρXY = 0
ρXY = ±1 ⇐⇒ Y = aX + b
21
6.7.3 Espérance et variance conditionnelles
Il est possible de caractériser un couple de variable aléatoire sur base de leur espérance et variance
conditionnelles:
Espérance conditionnelles
⎧
⎪
⎪
⎪∑ yj pY (yj ∣x)
⎪
⎪j
⎪
⎪
µY ∣x = E[Y ∣x] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎪∫ yfY (y∣x)dy
⎪
⎩ −∞
⎧
⎪
⎪∑ xi pX (xi ∣y)
⎪
⎪
⎪i
⎪
µX∣y = E[X∣y] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎪ xfX (x∣y)dx
⎩∫
−∞
variance conditionnelles
Est une mesure de la dispersion des valeurs de chacune des variables conditionnelles autour de leur
moyenne conditionnelle
⎧ 2
⎪
⎪
⎪∑(yj − µY ∣x ) pY (yj ∣x)
⎪
⎪j
⎪
⎪
σY2 ∣x = V ar[Y ∣x] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎪ (y − µY ∣x )2 fY (y∣x)dy
⎪∫
⎩ −∞
2
⎧
⎪
⎪∑(xi − µX∣y ) pX (xi ∣y)
⎪
⎪
⎪ i
⎪
µX∣y = E[X∣y] = ⎨
⎪
⎪
⎪ +∞
⎪
⎪
⎪
⎩∫ (x − µX∣y )2 fX (x∣y)dx
−∞
Souvent plus facile de passer par l’expression de la variance en terme d’espérance.
On peut aussi calculer l’espérance et la variable d’un événement arbitraire, par exemple E[Y ∣x] de
vient E[Y ∣A] dans les formules ci-dessus.
Régresssion
La régression de Y sur x est la fonction qui associe à chaque valeur de x la valeur µY ∣x par exemple.
22
6.8 Couple aléatoire normale
Pour un couple aléatoire (X,Y) normal, la loi de probabilité est entièrement caractérisé par les paramètre
qui sont les moyennes µY , µX et les variance σY2 , σX2
des variables X et Y, ainsi que le coefficient de
corrélation ρ
(X, Y ) ∼ N (µY , µX , σY2 , σX
2
, ρ)
(x−µX )(y−µY )
1 1
− 2(1−ρ 2 ) [(
x−µX
)2 −2ρ
y−µ
+( σ Y )2 ]
f (x, y) = √ e σX σX σY Y
2πσX σY 1 − ρ2
(cette formule était une horreur à écrire paix à moi)
Pour un couple normal, les lois conditionnelles Y ∣x et X∣y sont donc également des lois normales dont
on peut calculer l’espérance et la variance conditionnelles
σY
E[Y ∣x] = µY ∣x = µY + ρ (x − µX ) ; V ar[Y ∣x] = σY2 ∣x = σY2 (1 − ρ2 )
σX
σX 2 2
E[X∣y] = µX∣y = µX + ρ (y − µY ) ; V ar[X∣y] = σX∣y = σX (1 − ρ2 )
σY
Graphiquement → voir figure 6.35 (page 224)
• µX∣y et µY ∣x sont des droites qui se croisent au point (µX , µY )
• lorsque ρ = 0, on a que E[X∣y] = µX est perpendiculaire à E[Y ∣x] = µY
6.8.3 Indépendance
Pour montrer que deux variables aléatoires sont indépendantes il faut juste montrer que leur coefficient
de corrélation est égale à zéro:
X ⊥ Y ⇐⇒ ρ = 0
23
7 Vecteurs aléatoires
7.1 débrouille toi
Bon pour ce chapitre je vais pas faire de synthèse tout simplement parce que les formules en Latex
sont horrible à écrire du coup je vous laisse pleurer devant le cours n°10 pour comprendre ce chapitre.
Mais en gros si t’a compris le chapitre 6, il faut juste prendre tout les concepts et les généraliser à plus
de 2 variables. Et honnêtement je vous conseille pas de laisser tomber ce chapitre parce que le prof à
l’air d’aimer le mettre aux examens.
24