Probastat PDF
Probastat PDF
Probastat PDF
1
A- ELEMENTS DE STATISTIQUE DESCRIPTIVE
La plupart du temps les données se présentent sous la forme suivante : on a relevé p variables
numériques sur n individus.
On ne s’intéresse ici qu’à une variable X, appelée caractère, dont on possède n valeurs. La synthèse
de ces données se fait sous forme de tableaux, de graphiques et de résumés numériques. C’est ce
que l’on appelle couramment la « statistique descriptive ».
xj = 0 1 2 3 4 5 6 7 8 9
ej-1 Fj-1
ej Fj
2
Dans un histogramme, le rectangle construit sur chaque classe a une surface égales à la fréquence
de la classe:
1 3 4 5 6 7 8 10 14
1 n 2
Les calculs sont simplifiés par l’utilisation de la formule s2 = ∑
n i =1
xi − x 2
3
B – ELEMENTS DE PROBABILITES
I - Quelques définitions
On parle d’expérience ou d’épreuve aléatoire lorsque l’on ne peut pas prévoir à l’avance de résultat.
Il peut s’agir d’une expérience que l’on peut répéter plusieurs fois dans les mêmes conditions et qui
peut avoir des résultats différents (exemple : lancer de dé) ou d’une expérience par nature unique
(exemple : observation de la durée de vie d’un individu).
L’ensemble des résultats d’une expérience aléatoire est appelé l’univers des possibles ; il est
généralement noté Ω.
Un événement est une affirmation relative au résultat de l’expérience aléatoire. Par exemple, dans le
cas du lancer de dé, les propositions « le résultat du lancer de dé est 4 » ou « le résultat du lancer de
dé est supérieur à 5 » constituent chacune un événement possible.
Un événement peut être considéré comme une partie de l’ensemble Ω, c’est-à-dire comme un
ensemble lui-même. C’est pourquoi l’on utilise fréquemment les notations ensemblistes.
Au delà de cette définition mathématique peu « éclairante », on peut proposer trois approches de la
notion de probabilité.
Il s’agit de compter tous les cas de figures où l’événement se produit et de le rapporter au nombre
total de cas envisageables.
nombre de cas favorables
Probabilité =
nombre total de cas
4
Cette notion est très utile pour comprendre sur des exemples simples ce qu’est une probabilité.
La notion expérimentale :
Elle repose sur un théorème que nous verrons plus tard (loi des grands nombres) : lorsqu’une
expérience peut être répétée une « infinité » de fois, la fréquence d’un événement tend vers sa
probabilité. Autrement dit :
nombre de fois où l' événement a lieu
Probabilité = limite
grand nombre d'observations nombre total d'observations
Dans la plupart des problèmes de la vie courante, la probabilité d’un événement ne peut être
déterminé par un dénombrement des cas ; d’où l’importance de la définition expérimentale (et, plus
généralement, le développement de la statistique).
La notion subjectiviste :
Certains phénomènes aléatoires ne se répètent jamais tout à fait dans les mêmes conditions
(exemple : évolution de la bourse). On peut être amené à estimer de façon tout à fait subjective des
« probabilités » d’événements et essayer d’établir des prévisions en fonction de ces probabilités
établies a priori.
II - Probabilités conditionnelles
On peut s’intéresser à la probabilité de réalisation d’un événement A sachant qu’un événement B
est réalisé. On définit alors la probabilité de A sachant B, notée P (A/B) comme :
P( A ∩ B )
P (A/B) =
P( B )
5
Si l’on effectue deux tirages successifs sans remise, il semble intuitif que l’événement « la
deuxième boule tirée est rouge » n’est pas indépendant de l’événement « la première boule tirée est
noire ». La connaissance du premier événement nous apporte une information supplémentaire (la
boule rouge est encore dans l’urne donc on peut encore l’obtenir au deuxième tirage) : le nombre
total de cas possibles n’est plus le même que si nous n’avions aucune information sur le résultat du
premier tirage.
En revanche, si l’on remet dans l’urne la première boule tirée avant le second tirage (et qu’on
remélange les boules), alors les deux événements sont indépendants l’un de l’autre.
Mathématiquement, cette notion s’exprime ainsi : un événement A est indépendant d’un événement
B si la probabilité de A sachant B est égale à la probabilité de A, soit :
P (A/B) = P(A)
On démontre alors facilement le résultat très important suivant :
Si deux événements A et B sont indépendants, alors :
6
Cette fonction est définie ainsi :
F (x) = P (X<x)
La fonction de répartition permet de calculer simplement la probabilité de X dans tout intervalle. En
effet :
P( a ≤ X<b) = F (b) - F(a)
Densité de répartition d’une variable aléatoire continue
La description d’une variable aléatoire continue ne peut se faire sous la forme P(X=a) comme pour
les variables aléatoires discrètes.
On introduit (lorsque c’est possible) la notion de « densité de probabilité » :
f(x) = P (x < X < x+dx)/dx
∫
b
ce qui permet, par intégration, d’avoir P(a<X<b) = f(x) dx = F(b) - F(a)
a
III.2- Espérance
Pour une variable aléatoire discrète, l’espérance est définie par :
E(X) = ∑ x P( X = x )
ensemble des x possibles
E(X) a le sens d’une moyenne de toutes les valeurs possibles de X, pondérées par leur probabilité.
Intuitivement, c’est la moyenne des valeurs que l’on observe lorsque le nombre d’observations
successives de X tend vers l’infini.
Pour une variable continue de densité de probabilité f, on définit de même :
E(X) = ∫ x. f(x). dx
R
Propriétés de l’espérance
Si a est une constante,
E(a) = a (événement certain)
E(X+a) = E(X) + a
E(aX) = a. E(X)
Soient deux variables aléatoires X et Y,
E(X+Y) = E(X) + E(Y)
Si, de plus, X et Y sont des variables indépendantes,
E(XY) = E(X). E(Y)
Théorème de l’espérance totale
Si on note E(Y/X) la variable aléatoire qui prend pour valeurs E(Y/X=x)= ∑ y. P (Y =y / X= x) avec
y
7
III.3- Variance
La variance est définie par :
V(X) = E [(X-E(X))2 ]
On voit dans cette définition que l’on cherche à mesurer « en moyenne » (en espérance), l’écart de
la variable aléatoire à E(X). V(X) traduit la dispersion des résultats de X autour de la « moyenne ».
L’écart type (noté σ) de X est la racine carrée de la variance V(X)
σ= V( X)
Propriétés de la variance
Autre formule de la variance : V(X) = E(X2 ) - (E(X))2
Inégalité de Bienaymé-Tchébychev :
1
P( | X - E(X) | > k σ) <
k2
Cette inégalité est la première relation entre espérance et écart type qui permet d’apprécier la
dispersion d’une variable aléatoire.
Variance d’une somme de variables aléatoire :
- cas général :
V(X+Y) = V(X) + V(Y) + 2 cov (X, Y)
où la quantité cov (X,Y), appelée covariance de X et de Y vaut : E(XY) - E(X). E(Y)
- si X et Y sont indépendantes,
V(X+Y) = V(X) + V(Y)
Théorème de la variance totale
Si on note V(Y/X) la variable aléatoire qui prend pour valeurs V(Y/X=x)= E[(Y-E(Y/X=x))2 / X=x]
avec les probabilités P(X=x), on a :
V(Y) = E[V(Y/X)] + V[E(Y/X)]
8
C- EXEMPLES DE LOIS DE PROBABILITES DISCRETES
I - La Loi Binomiale
∑
n
On étudie alors la variable aléatoire X = i =1
X i correspondant au nombre de fois où l’événement A
peut survenir au cours de la répétition de n épreuves aléatoires identiques.
On montre que la loi de X est :
P (X = k) = C kn pk (1-p)n-k
De plus :
E (X) = np
Et V(X) = np(1-p) soit aussi σ = np(1− p)
Description de la loi binomiale :
P (X=k) croît puis décroît quand k augmente.
La valeur la plus probable de k est la valeur la plus proche de np.
La loi binomiale peut être approximée :
- par la loi de Poisson si p est petit (en pratique p<0,1) et n est assez grand (n>50), ou encore n.p <
10 ;
- par la loi de Gauss quand n devient grand (en pratique si n.p > 30).
II - La Loi de Poisson
La variable aléatoire X, à valeurs dans N, suit une loi de Poisson de paramètre λ (notée P(λ)) si elle
vérifie la formule suivante :
9
−λ λk
P (X = k) = e
k!
On montre que :
E (X) = λ
V (X) = λ
Propriété : addition de deux lois de Poisson indépendantes.
Soit X1 et X2 deux variables aléatoires indépendantes suivant respectivement les lois de Poisson
P(λ1 ) et P(λ2 ), la variable aléatoire X1 + X2 suit une loi de poisson de paramètre λ1 +λ2 .
La loi de Poisson est très utile en actuariat dommage ainsi que dans tous les domaines où il s’agit de
modéliser le nombre de fois où un événement (sinistre en assurance) survient dans un intervalle de
temps donné.
10
D - LES LOIS DE PROBABILITES CONTINUES
Définitions
Les grandeurs définies pour les variables aléatoires discrètes ont leur analogue dans le cas de
variables aléatoires continues : les probabilités individuelles de réalisation de x : P(X=x) sont
simplement remplacées par des densités de probabilité au voisinage de x : f(x)*dx, et les
sommations sont remplacées par des intégrales.
Le fait que f définisse une densité de probabilité se vérifie en calculant l’intégrale sur R ∫ f ( x ) * dx ,
qui doit être égale à 1, puisque la probabilité de l’univers des possibles est égale à 1.
L’espérance d’une variable aléatoire continue de fonction de densité f se définit ainsi :
E(X) = ∫ x * f ( x ) * dx
Propriétés
Les propriétés de l’espérance et de la variance sont les mêmes dans le cas continu que dans le cas
discret.
• Si X et Y sont deux variables aléatoires continues quelconques :
V(X) = E(X2 ) - E(X)2
11
E(X+Y) = E(X) + E(Y)
V(X+Y) = V(X) + V(Y) + 2 * COV(X,Y) , où COV(X,Y) = E(X*Y) - E(X)*E(Y)
• Si X et Y sont deux variables aléatoires continues indépendantes :
E(X*Y) = E(X) * E(Y)
V(X+Y) = V(X) + V(Y)
F(x) = 0 si x < 0
F(x) = 1 si x > 1
x
∫
F(x) = 1 / a * dx = x / a si 0 < x < a
0
∫ x / a * dx = [ x 2
E(X) = / 2a ] 0a = a / 2
0
∫x
2 2 2
V(X) = E(X ) - E(X) = / a * dx - a2 / 4 = [ x3 / 3a ] 0a - a2 / 4 = a2 / 3 - a2 / 4 = a2 / 12
0
∫ f (x ) * dx = ∫ a * e
−a * x
1= * dx = [-exp(-a*x) ] +∞
0
0
E(X) = ∫ a * x * e −a * x * dx = [-x*exp(-a*x)] +∞
0 - ∫−e
− a*x
* dx (intégration par parties)
0 0
12
V(X) = E(X2 ) – E(X)2
+∞ +∞
∫e
−y
Γ (r) = * y r −1 * dy
0
13
+∞
∫e
−y
Γ (r+1) = * r * y r −1 * dy = r * Γ (r)
0
+∞
entier strictement positif, ce qui explique que cette fonction soit également appelée fonction
factorielle.
+∞ +∞
0 0
L’espérance d’une variable aléatoire suivant une loi de Pareto n’est définie que si a > 1
Dans ce cas : E(X) = a * x0 a / (1-a) * [x1-a] +∞
x0 = a / (a-1) * x0
+∞
14
La variance d’une variable aléatoire suivant une loi de Pareto n’est définie que si a > 2
Dans ce cas : E(X2 ) = a * x0 a / (2-a) * [x2-a] +∞
x0 = a / (a-2) * x0
2
15
II.5 – La loi normale ou de Laplace-Gauss
La loi normale joue un rôle fondamentale en théorie des statistiques.
E(X) = 1 / (σ 2π ) * ∫ x * e − ( x −m ) / 2σ 2
2
* dx
−∞
E(X) = 1 / (σ 2π ) * ∫ (σ * y + m) * e − y *σ * dy
2
/2
−∞
+∞ +∞
E(X) = (σ / 2π ) * ∫ y * e −y2 / 2
2π ) * ∫ e − y
2
/2
* dy + (m / * dy
−∞ −∞
La fonction y*exp(-y2 /2) est anti-symétrique par rapport à 0 (f(-y) = -f(y) pour tout réel y), donc son
intégrale calculée sur ]-∞ ; +∞[ est égale à 0 : le premier terme disparaît.
+∞
∫ f (x ) * dx = 1, ce qui s’écrit : ∫e * dx = σ* 2π
− ( x − m )2 / 2 σ 2
Par ailleurs, on doit avoir :
−∞
∫e * σ * dy = σ * 2π
− y2 / 2
−∞
+∞
∫e 2π
−y2 / 2
soit * dy =
−∞
La fonction exp(-y2 /2) est symétrique par rapport à 0, donc son intégrale calculée sur ]-∞ ; +∞[ est
égale au double de son intégrale calculée sur ]0 ; +∞[.
+∞
∫e
−y2 / 2
D’où : * dy = π / 2 , que l’on remplace dans le second terme de l’expression de E(X).
0
V(X) = E((X-m)2 ) = 1 / (σ 2π ) * ∫ ( x − m) 2 * e −( x − m ) / 2σ 2
2
* dx
−∞
V(X) = 1 / (σ 2π ) * ∫ σ 2 * y 2 * e − y *σ * dy
2
/2
−∞
16
+∞ +∞
∫ y *e ∫ y *e
−y 2
V(X) = σ / 2π *
2 − y2 / 2
* dy = σ * 2 / π *
2
2 2 /2
* dy
−∞ 0
+∞
V(X) = σ * 2 / π * ∫ (− y ) * ( − y * e − y
2
2 /2
) * dy
0
+∞
∫−e
−y 2
En intégrant par parties : V(X) = σ * 2 / π * ( [-y * exp(-y /2)]
2 2 +∞ /2
0 - * dy )
0
+∞ +∞
V(X) = σ * 2 / π * ∫ e ∫e
−y2 / 2 −y 2
2
* dy = σ 2
* dy = π / 2
/2
puisque
0 0
Une loi normale N(m, σ) a pour espérance m et pour variance σ2 (donc pour écart type σ).
g(y) = 1/ 2π * exp (-y2 /2) , ce qui correspond bien à la densité de la loi N(0,1).
17
1
g(y) = a1/2 * * exp (-a*y) * yr-1
π
1 1
Ce qui est la fonction de densité de la loi gamma : γ ( ; 2 )
2 2σ
On a (facteur de normalisation) :
Γ (1/2) = π
∫ y * f ( y ) * dy = 1 /(σ 2π ) * ∫ e
−(ln y − m ) 2
/ 2σ 2
E(Y) = * dy
0
E(Y) = 1/ 2π * ∫ e − x * eσ * x + m * dx = 1/ 2π * ∫ e − x / 2 +σx + m
2 2
/2
* dx
−∞ −∞
+∞
−∞
+∞
−∞
∫ y*e
−( a *ln( y ) +b )2 / 2
E(Y2 ) = 1/ 2π * * dy
0
E(Y2 ) = 1/ 2π * ∫ e − x * e 2*σ * x +2 *m * dx = 1/ 2π * ∫ e − x / 2 + 2σ x + 2 m
2 2
/2
* dx
−∞ −∞
+∞
E(Y2 ) = 1/ 2π * ∫ e − ( x −2 σ )
2
/2
* dx * exp(2m + 2σ2 ) = exp(2m + 2σ2 )
−∞
18
V(Y) = exp(2m + σ 2 ) * (exp( σ 2 ) - 1)
Dans le cas particulier ou m = 0 et σ = 1, c’est-à-dire si ln(Y) suit la loi normale centrée réduite, on
a:
E(Y) = exp(1/2) = e
V(Y) = e * (e-1)
19
E - LOI DES GRANDS NOMBRES ET THEOREME DE LA LIMITE CENTRALE
L’idée directrice de ce chapitre est la suivante : on considère une variable aléatoire X, et on
s’intéresse à des observations Xi de X ; quelle que soit la loi de X, la moyenne des Xi (pour i
compris entre 1 et n), notée Mn , ou la somme des Xi, notée Sn , ont certaines propriétés lorsque n est
suffisamment « grand » : on parle de propriétés asymptotiques.
Ces propriétés se traduisent par les deux théorèmes fondamentaux connus sous les dénominations
suivantes : la loi des grands nombres et le théorème de la limite centrale.
20
On dit que M n converge vers E(X) avec une probabilité égale à 1.
Mathématiquement, ce résultat est beaucoup plus fort que le premier (et plus difficile à démontrer,
faisant intervenir la théorie de la mesure de Lebesgue et le théorème de Borel-Cantelli).
Dans la pratique, il suffit de retenir que la moyenne des Xi tend vers E(X) lorsque n tend vers +∞, la
loi forte ajoutant que cette convergence a lieu « presque partout » dans l’univers des possibles.
La seconde grande loi statistique vise à décrire à quelle vitesse cette convergence a lieu : c’est la
théorème de la limite centrale, parfois appelé théorème central-limite.
Ce qui signifie que pour n « assez grand », la loi de n * (Mn - E(X)) / σ(X) « ressemble » à une loi
gaussienne centrée réduite.
On peut également écrire le théorème central-limite ainsi :
σ (X)) → N (0;1)
(Sn - n*E(X)) / ( n *σ
Remarque : ce théorème est encore valable lorsque X1, X2, ... Xn ne suivent pas toutes la même loi, si certaines conditions sur les σi =
σ(Xi) sont respectées (par exemple, si les si sont bornées). Le théorème s’écrit alors :
X1 + X2 + ...+ Xn - [E(X1)+E(X2)+ ... +E(Xn)] → N (0,1)
√n * σ
où : σ = σ1 + σ22 + ... + σn2
2 2
Cela permet d’approcher la loi binomiale B(n ; p) par la loi normale N(n*p ; n * p * (1 − p) )
D’où la formule de calcul approché d’une probabilité de réalisation de la loi binomiale :
P (Bn = x) ≈ P [ x - 1/2 < n*p + n * p * (1 − p ) * U < x + 1/2 ]
21
où U suit une loi normale centrée réduite.
1 1
x− − n* p x+ −n* p
P (Bn = x) ≈ P [ 2 < U < 2 ]
n * p * (1 − p) n * p * (1 − p)
La probabilité pour que U se trouve dans l’intervalle ci-dessus s’obtient ensuite à partir d’une table
de la loi normale : celle-ci donne, pour x compris entre 0,00 et, souvent, 2,99, la fonction de
répartition F(x) (c’est-à-dire la probabilité pour qu’une variable aléatoire suivant la normale centrée
réduite prenne une valeur inférieure à x).
On a : P [ x1 < U < x2 ] = F(x2 ) – F(x1 )
Si x1 ou x2 est négatif, on utilisera la relation : F(x) = 1 - F(-x) pour se ramener à des valeurs
figurant dans la table.
22
n n
F(A * ) - F(-A * ) = 95%
σ( X ) σ( X )
(où F est la fonction de répartition de la loi normale centrée réduite)
Cette équation donne :
n
2 * F(A * ) - 1 = 95%
σ( X )
n
F(A * ) = 97,5%
σ( X )
On lit alors dans la table de Laplace-Gauss la valeur de x donnant une répartition de 97,5% (c’est : x
= 1,96), et on en déduit la valeur de A.
Le problème pourra être posé différemment : A sera donné et on cherchera à partir de quelle valeur
de n l’intervalle [-A ; A] est un intervalle de confiance à 95% (ou 99%, ou 99,9%, etc…) pour
l’écart entre la moyenne Mn et l’espérance E(X).
23