Pratique de L'économétrie Linéaire - 2 - Multicolinéarité PDF
Pratique de L'économétrie Linéaire - 2 - Multicolinéarité PDF
Pratique de L'économétrie Linéaire - 2 - Multicolinéarité PDF
Multi-colinéarité, hétéroscédasticité et
autocorrélation
Plan du cours
› Rappel modèle de régression multiple
› Violation des hypothèses :
› La multi-colinéarité : qu’advient-il si les régresseurs sont corrélés?
› L’hétéroscédasticité : qu’advient-il si la variance de l’erreur n’est pas
constante?
› L’autocorrélation : qu’advient-il si les termes d’erreur sont corrélés?
Rappel
Le modèle de régression multiple
Modèle de régression multiple
› Nous avons considéré le cas où une variable endogène est expliquée par une
seule variable exogène.
› C’est extrêmement rare qu’un phénomène économique puisse être expliqué par
une seule variable.
Terme constant
Hypothèse 2:
Les valeurs de 𝑋 sont fixées dans un échantillonnage répété. Les valeurs prises par
le régresseur 𝑋 sont considérées comme fixes dans les échantillons renouvelés. En
termes plus technique, 𝑋 est supposé non stochastique.
𝜆1 𝑋1 + 𝜆2 𝑋2 + ··· +𝜆𝑘 𝑋𝑘 = 0
La variable 𝑋3∗ a été créé à partir 𝑋3 en ajoutant les numéros suivants, pris à partir
d'un tableau de nombres aléatoires: 2, 0, 7, 9, 2.
› Rappelons que si les hypothèses du MC sont satisfaites, les estimateurs MCO sont
des « BLUE ».
› Même si la multicolinéarité est très élevé, les estimateurs MCO conservent la
propriété « BLUE ».
› Théoriquement : la multicolinéarité viole partialement les hypothèses de régression,
Le seul mal est d’avoir des estimations de coefficients avec petite erreur standard.
› L’importance se réside dans la taille de l’échantillon et sa composition.
Exemple: Il sera difficile d’expliquer le comportement de la dépense de
consommation en fonction du revenu et la richesse du consommateur.
› Solution : l’échantillon doit comporter des riches à faible revenu, et des pauvres à
revenu élevé.
Conséquence pratique de la multicolinéarité
Statistiques de la régression
Coefficient de détermination multiple 0,9815826
Coefficient de détermination R^2 0,9635044 Coefficients Erreur-type Statistique t Probabilité
Coefficient de détermination R^2 0,95307708 Constante 24,7747333 6,7524996 3,66897219 0,00797508
Erreur-type 6,80804069 X2 0,94153734 0,82289826 1,14417223 0,29016475
Observations 10 X3 -0,04243453 0,08066448 -0,52606213 0,61509454
ANALYSE DE VARIANCE
Degré de liberté Somme des carrés Moyenne des carrés F Valeur critique de F
Régression 2 8565,554074 4282,777037 92,4019592 9,28628E-06
Résidus 7 324,4459263 46,34941804
Total 9 8890
Dependent Variable: YT
Method: Least Squares
Date: 11/20/15 Time: 17:26
Sample: 1 10
Included observations: 10
› Interprétation statistique :
La régression montre que, ensemble, le revenu et la richesse expliquent environ 96%
de la variation de la dépense de la consommation, et cependant aucun des coefficients
de pente n’est, individuellement, statistiquement significative,
De plus, non seulement la richesse n’est pas statistiquement significative, mais elle a
le mauvais signe. On s’attendrait plutôt à une relation positive entre la consommation
et la richesse.
Bien que𝛽2 et 𝛽3 soient individuellement, statistiquement non significatifs: si on test
l’hypothèse: 𝛽2 = 𝛽3 = 0 simultanément : c-à-d (d’après la tableau des résultats)
› Interprétation géométrique :
Limite inférieure
pour seuil de Limite supérieure pour
confiance = 95% seuil de confiance = 95%
8,807608957 40,74185758
-1,004307846 2,887382531
-0,233175723 0,148306664
Exemple les dépenses de consommation, fonction du revenu et de la
richesse
› Interprétation géométrique :
› Nous avons construit les intervalles de confiance individuels à 95% pour 𝛽2 et 𝛽3 ,
on peut accepter l’hypothèse que les deux pentes partielles prises individuellement,
sont nulles.
› Première Conclusion
› C’est une des manœuvres les plus simples est d’abandonner une variable ou les
variables colinéaires.
› Dés lors, ce remède, dans certains cas, est pire que la maladie: l’omission d’une
variable peut nous conduire à des valeurs non vraies des paramètres. Rappelons le
que les estimateurs MCO sont BLUE en dépit d’une colinéarité.
Les remèdes (La transformation de variables)
› Les 𝛽𝑖 ont des 𝜎𝛽2 et des covariances élevées rendant l’estimation des paramètres
imprécise. En cas de multicolinéarité parfaite, (𝑋’𝑋)−1 ∄ et on ne peut pas
déterminer 𝛽𝑖 parce que (𝑋’𝑋) est singulière.
› Bien que t est statistiquement non significatif, 𝑅² est très élevé ; cas que l’on
rencontre lorsque la taille de l’échantillon est faible;
› Les 𝛽𝑖 ont des 𝜎𝛽2 sont très sensibles à des petites variations dans les données (par
exemple, ajouter ou retrancher quelques observations ou variables les faits varier
sensiblement).
Pour résumer : détection de la multicolinéarité
› Un 𝑅² élevé mais avec des coefficients non significatifs (t non significatifs). C’est
le symptôme classique de la multicolinéarité :
si 𝑅² est grand (généralement > 0,80) alors que le test de 𝐹 de Fischer, est rejetée.
Pour résumer : remède à la multicolinéarité
Statistiques de la régression
Coefficient de détermination multiple 0,99803737
Coefficient de détermination R^2 0,99607859
Coefficient de détermination R^2 0,99294146
Erreur-type 0,36136256
Observations 10
ANALYSE DE VARIANCE
Degré de
liberté Somme des carrés Moyenne des carrés F Valeur critique de F
Régression 4 165,8470855 41,46177137 317,513019 3,3609E-06
Résidus 5 0,652914509 0,130582902
Total 9 166,5
› Test de Klein:
(2) Étape 2 : calculs des coefficients de corrélation
Y X1 X2 X3 X4
Y 1
X1 0,99773334 1
X2 0,98335871 0,98831453 1
X3 0,97088047 0,96823575 0,92845721 1
X4 0,98870465 0,98766558 0,96947733 0,98195357 1