Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Le Maximum de Vraisemblance

Télécharger au format odp, pdf ou txt
Télécharger au format odp, pdf ou txt
Vous êtes sur la page 1sur 14

LE MAXIMUM DE VRAISEMBLANCE

Réalisé par :
MAHA KASBAOUI
REDA HAIRY
NAIMA SABRI
KAWTAR
Plan
I. Le Maximum de Vraisemblance :
qDéfinitions et propriétés
qEstimation
qLes moindres carrés ordinaires
Le maximum de vraisemblance
Définitions
Définitions
• La vraisemblance est une fonction des observations et du paramètre
dont l’objectif est de trier les différentes valeurs du paramètre selon
leur « Likelihood ».
• La vraisemblance offre une approche générale de l’estimation de
paramètres inconnu à l’aide de données.

Soit X une variable aléatoire réelle, de loi ou bien discrète ou bien continue, dont on veut estimer un 
paramètre θ. On note 

 cette famille de lois paramétriques. Alors on définit une fonction f telle que : 

fθ(x) représente la densité de X (où θ apparaît) et Pθ(X = x) représente une probabilité discrète


(où θ apparaît).

On appelle vraisemblance de θ au vu des observations (x1,...,xi,...,xn) d'un n-échantillon indépendamment et identiquement distribué


selon la loi 

le nombre :
.

En pratique :

La condition nécessaire Ou
Permet de trouver la valeur 
 Est un maximum local si la condition suffisante est remplie au point critique 
 

Ou

§ Pour simplifier, dans les cas de lois continues, où parfois la densité de probabilité est nulle sur un
certain intervalle, on peut omettre d'écrire la vraisemblance pour cet intervalle uniquement.
Maximum de vraisemblance

Propriétés
Propriétés
L'estimateur obtenu par la méthode du maximum de vraisemblance
est :
• Convergent, mais il peut être biaisé en échantillon fini.
• Asymptotiquement efficient, il atteint la borne de Cramer Rao.
• Asymptotiquement distribué selon une loi normale.


Moindres Carrés Ordinaires
Définitions
Moindres Carrés Ordinaires
• C’est une technique pour estimer les coefficients d'une régression linéaire
 qui décrivent les relations entre une ou plusieurs variables quantitatives
et une variable dépendante (selon si la régression linéaire est simple ou
multiple).
• Les moindres carrés désignent l'erreur quadratique minimale.
• Les estimateurs du maximum de vraisemblance ou des moments sont des
approches alternatives à la régression linéaire.
Equation du MCO
• Y = β0 + Σj=1..p βjXj + ε
Où Y = La variable dépendante , β0=constante du modèle ,
X j désigne la jème variable explicative du modèle (j= 1 à p)
e =une erreur aléatoire d'espérance 0 et de variance σ²
Exercice :
On prends l’exemple des 5 spécimens fossiles d’un animal disparu pour lesquels on possède les mesures de la longueur en
cm de leur humérus x et de leur fémur y. 1. Compléter le tableau suivant et en déduire les valeurs des variances et
covariance :
1. Compléter le tableau suivant et en déduire les valeurs des variances et covariance :

Calculs effectués pour variances et covariance :

Var(x) = µ(x²) − µ(xi)² = 4879, 2 − 68,42 = 200, 64


Var(y) = µ(y²) − µ(y)² = 3767 − 60, 22 = 142, 96
Cov(x, y) = µ(xy) − µ(x)µ(y) = 4284, 6 − 68,4 · 60, 2
Cov(x, y) = 166, 92

Var(x) = 200, 64 Var(y) = 142, 96


Cov(x, y) = 166, 92
2. Déterminer, par la méthode des moindres carrés ordinaires, l’équation de la droite de régression de y en x.
â

Vous aimerez peut-être aussi