ECONOMETRIE
ECONOMETRIE
ECONOMETRIE
Olivier Donni
1 Introduction
1.1 Qu’est-ce que l’économétrie?
C’est de la statistique appliqué à l’économie, qui permet de tester des théories
économiques, prédire des comportement économiques et évaluer des politiques
économiques. Les caractéristiques de l’économétrie sont:
y= 0 + 1x +u
Ce modèle est linéaire car l’e¤et ‘ceteris paribus’de x sur y est linéaire:
y= 1 x si u=0
REND = 0 + 1 ENG + u
5
6 Modèle de régression linéaire simple
X
N
min (yi ^0 ^ 1 xi )2 ;
^ ;^
0 1 i=1
u^i = yi ^0 ^ xi :
1
Donc, les estimateurs des MCO sont ceux qui minimisent le carré des résidus.
Les conditions de premier ordre sont:
X
N
(yi ^ ^ xi ) = 0
0 1
i=1
X
N
xi (yi ^ ^ xi ) = 0
0 1
i=1
y = ^ 0 + ^ 1x
1 X 1 X
N N
avec y = yi et x = xi
N i=1 N i=1
et donne ^ 0 :
^ =y ^ x
0 1
La deuxième équation devient:
X
N
xi (yi ^ ^ xi ) = 0
0 1
i=1
X
N
xi (yi (y ^ x) ^ xi ) = 0
1 1
i=1
Dérivation des estimateurs des MCO 7
Donc, si
X
N
(xi x)2 6= 0;
i=1
alors
PN \y)
^1 = i=1 (xi x)(yi y) cov(x;
PN =
i=1 (xi x)2 \
var(x)
^ = y ^ x
0 1
y^i = ^ 0 + ^ 1 xi
u^i = yi y^i = ( 0 + 1 xi + ui ) ( ^ 0 + ^ 1 xi )
y^ = ^ 0 + ^ 1 x
E(yjx) = 0 + 1 x:
8 Modèle de régression linéaire simple
y = ^ 0 + ^ 1x
Propriété 5: La somme des carrés totaux est égale à la somme des carrés
expliqués et la somme des carrés résiduels:
Démonstration de la Proposition 5:
X
N
SST = (yi y)2
i=1
XN
= ((yi y^i ) + (^
yi y))2
i=1
XN
= (^
ui + (^
yi y))2
i=1
X
N
= u2i + 2^
(^ ui (^
yi y) + (^
yi y)2 )
i=1
XN X
N X
N
= u^2i + 2 u^i (^
yi y) + (^
yi y)2
i=1 i=1 i=1
X
N
= SSR + 2 u^i (^
yi y) + SSE
i=1
Or
X
N X
N X
N
ui (^
yi y) = u^i y^i y u^i = 0 en vertu de la Propriété 4
i=1 i=1 i=1
\
VOTE_A = 40:90 + 0:306 PART_A
R2 = 0:505
Unités de mesure et non linéarité 11
X
N
(xi x)2 6= 0
i=1
Propriétés statistiques des MCO 13
E( ^ 0 ) = 0 et E( ^ 1 ) = 1
= 0 + 1x + u ^ 1x
= +( ^ )x + u
0 1 1
E( ^ 0 ) = 0 + E(( 1
^ 1 )x) + E(u)
= 0 + xE( 1
^ 1)
\ = 32:14
MEAP 0:319 PROP_SUBV,
R2 = 0:171:
2
var(ujx) = :
Remarque: Les hypothèses 3 et 5 peuvent être mises sous la forme de
moyenne et de variance conditionnelle:
E(yjx) = 0 + 1x
2
var(yjx) =
2
PN
x2i 2
var( ^ 0 ) = PN i=1
, var( ^ 1 ) = PN
N i=1 (xi x)2 i=1 (xi x)2
Démonstration:
Partie 1: On a: PN
^1 = (xi x)ui
1 + Pi=1
N
:
i=1 (xi x)2
16 Modèle de régression linéaire simple
Partie 2:
^0 = 0 + ( 1
^ 1 )x + u
var( ^ 0 ) = var ( 1
^ )x + u
1
Or
cov ^ 1 ; u = E( ^ 1 1 u)
! !!
1 X
N
1 X
N
= E PN (xi x)ui ui
i=1 (xi x)2 i=1
N i=1
!
1 1 XN X
N
= PN E uj (xi x)ui
i=1 (xi x)2 N j=1 i=1
!
1 1 X
N X
N
= PN E (xi x)ui uj
i=1 (xi x)2 N j=1 i=1
= 0
Donc:
Or
X
N X
N
(xi x)2 = x2i N x2
i=1 i=1
Donc:
PN PN !
2
i=1 xi i=1 (xi x)2 2 2
var( ^ 0 ) = PN +
N i=1 (xi x)2 N
2 X
N
= PN x2i
N i=1 (xi x)2 i=1
yi = 0 + 1 xi + ui (erreur)
yi = ^ 0 + ^ 1 xi + u^i (résidu)
et donc,
u^i = yi ^ ^ xi
0 1
= ( + ^ ^ xi
0 1 xi + ui ) 0 1
mais cet estimateur sera biaisé car les résidus doivent satisfaire des contraintes:
X
N X
N
u^i = 0; xi u^i = 0
i=1 i=1
1 X
N
SSR
^2 = u^2i = :
N 2 i=1
N 2
E(^ 2 ) = 2
Or:
X
n
u^i = 0 = u (^0 0) (^1 1 )x
i=1
en vertu des propriétés algébriques des MCO (la somme des résidus est nulle),
P P
où u = ni=1 ui et x = ni=1 xi . Donc, en soustrayant la seconde expression à
la première, on obtient:
Et en prenant l’espérance,
!
X
n
E u^2i = A + B + C:
i=1
avec
!
X
n
A = E (ui u)2 ;
i=1
!
X
n
B = E (^1 1)
2
(xi x)2 ;
i=1
!
X
n
C = 2E (^1 1 ) (ui u) (xi x)
i=1
20 Modèle de régression linéaire simple
A = (n 1) 2 :
De plus:
X
n
B = (xi x)2 E ( ^ 1 1)
2
i=1
0 !2 1
X
n Pn
(xi x) ui A
= (xi x)2 E @ Pi=1 n
i=1 i=1 (xi x)2
0 !2 1
Pn 2 Xn
(xi x)
= Pni=1 2 2
E@ (xi x) ui A
i=1 (x i x) i=1
1 X
n
= Pn 2 (xi x)2 E u2i
i=1 (xi x) i=1
2
=
Et en …n de compte,
!
X
n
E u^2i = (n 1) 2
+ 2
2 2
= (n 2) 2 :
i=1
3 Modèle de régression linéaire multi-
ple 1: Dé…nition et calcul
3.1 Motivation
Exemples de modèles de régression multiple:
Exemple 1.
SAL = 0 + 1 EDUC + 2 EXPER + u
Exemple 2.
Exemple 3.
CONS = 0 + 1 REV + 2 REV2 + u
Dans ce cas,
CONS
= 1 +2 2 REV
REV
Exemple 4.
23
24 Modèle de régression linéaire multiple 1: Dé…nition et calcul
et le résidu par
u^i = yi y^i :
Dans le cas de deux variables explicatives, la droite de régression est donnée
par:
y^ = ^ 0 + ^ 1 x1 + ^ 2 x2
où ^ 0 est l’estimation de y quand x1 = 0 et x2 = 0, y^ = ^ 1 x1 pour
x2 …xé, y^ = ^ 2 x2 pour x1 …xé. L’intérêt des MCO est de fournir des
interprétations ceteris paribus même si les données n’ont pas été collectées de
manière adéquates.
Exemple: Considérons la droite de régression suivante:
\ = 0:284 + 0:092 EDUC + 0:0041 EXPER + 0:022 ANC
log(SAL)
Une année d’éducation supplémentaire, toutes autres choses étant égales, représen-
tera un accroissement de salaire de 9%. Si plusieurs variables indépendantes
se modi…ent simultanément, les e¤ets se cummulent. Par exemple, une année
d’expérience et d’ancienneté impliquera un accroissement de salaire de 26%:
\
log(SAL) = 0:0041 EXPER + 0:022 ANC = 0:261
X
N
SST = (yi y)2 ;
i=1
XN
SSE = (^
yi y)2 ;
i=1
XN
SSR = ui )2 ;
(^
i=1
alors
SST = SSE + SSR.
Le coe¢ cient de détermination est alors dé…ni par
SSE SSR
R2 = =1
SST SST
2
cov\
(yi ; y^i )
=
\
var \
(yi )var (^
yi )
c’est-à-dire le carré du coe¢ cient de corrélation entre yi et y:
X
n
x1i (yi ^0 ^ x1i ^ x2i ) = 0:
1 2
i=1
ou encore, Pn
^ = Pni=1 r^1i yi :
1
i=1 r
^1i r^1i
4 Modèle de régression linéaire multi-
ple 2: Espérance et variance des
estimateurs
4.1 L’espérance des estimateurs des MCO
(1) Selon une autre interprétation de cette hypothèse, si l’on régresse une vari-
able explicative quelconque sur l’ensemble des autres variables explicatives,
le R2 doit être inférieur à 1.
(2) Les variables explicatives peuvent être corrélées mais elles ne peuvent pas
29
30 Modèle de régression linéaire multiple 2: Espérance et variance des estimateurs
ou
CONS = 0 + 1 REV + 2 REV2 + u:
(3) Cas particuliers où il y a une corrélation parfaite:
– Une variables est le multiple d’une autre (les unités de mesure sont
di¤érentes) ou bien:
E( ^ j ) = j
Remarques:
y^ = ^ 0 + ^ 1 x1 + ^ 2 x2 + ^ 3 x3
y= 0 + 1 x1 + 2 x2 + u:
Cela n’a aucun e¤et en termes de biais mais cela peut avoir des e¤ets en
termes de variance.
(2) (Exclusion de variables pertinentes: le cas simple) Si l’on estime:
y = ~ 0 + ~ 1 x1
32 Modèle de régression linéaire multiple 2: Espérance et variance des estimateurs
y= 0 + 1 x1 + 2 x2 + u
SAL = 0 + 1 EDUC + v
x2 = ^0 + ^1 x1
Donc:
E ~ 1 = 1 + 2 ^1
Les cas où il y a absence de biais sont lorsque x2 et x1 sont non corrélés
dans l’échantillon et lorsque 2 est égal à zéro.
Le biais est positif (E ~ 1 ~
1 > 0) si signe( 2 ) = signe( 1 ):
y= 0 + 1 x1 + 2 x2 + 3 x3 +u
On estime:
y= 0 + 1 x1 + 2 x2 +u
Supposons que:
2
var(ujx1 ; :::; xK ) =
34 Modèle de régression linéaire multiple 2: Espérance et variance des estimateurs
(1) Les composantes de la variance des estimateurs des moindres carrés ordi-
naires sont les suivantes:
– La variance du terme aléatoire 2 ;
– La variance des variables explicatives et le nombre d’observations (le
P
problème de micronumérosité): N i=1 (xji xj )2 ;
– La collinéarité entre les variables explicatives (problème de multicollinéar-
ité): 1 Rj2 .
La variance des estimateurs 35
Il existe une in…nité d’estimateurs sans biais, mais l’estimateur des MCO a une
propriété très attractive.
Theoreme 4 (Théorème de Gauss-Markov): Sous les hypothèses 1-5,
les estimateurs des MCO sont les meilleurs estimateurs linéaires non biaisés de
0; 1; : : : ; K .
36 Modèle de régression linéaire multiple 2: Espérance et variance des estimateurs
Remarque:
(1) Un estimateur est linéaire s’il peut s’écrire sous la forme d’une fonction
linéaire des données sur la variable dépendante:
X
N
~j = wij yi
i=1
où chaque wij peut être une fonction de toutes les variables indépendantes.
Or, l’estimateur des MCO est linéaire puisque
PN
^ = Pi=1 r^1i yi
1 N 2
i=1 r
^1i
(2) Un estimateur est “meilleur”q’un autre estimateur si sa variance est plus
petite que celle de cet autre.
(3) Les estimateurs, qui ont la propriété décrite dans le Théorème 4, sont dits
‘BLUE’(= Best Linear Unbiased Estimator).
5 Modèle de régression linéaire multi-
ple 3: Inférence
5.1 Echantillonnage des estimateurs des MCO
On ne connaît que deux moments de la distribution des estimateurs (espérance
et variance). Pour connaître les autres moments, on a besoin de l’hypothèse
suivante:
Hypothèse 6 (normalité): Les termes aléatoires u sont sont distribués
selon une loi normale.
Remarque:
Remarque: Les estimateurs des MCO sont donc les meilleurs y compris
dans la classe des estimateurs non linéaires.
37
38 Modèle de régression linéaire multiple 3: Inférence
Donc, ^ j est une combinaison linéaire des termes aléatoires qui suivent une loi
normale.
H0 : j =0
On peut vouloir tester l’hypothèse nulle 2 = 0 (l’expérience n’a pas d’e¤et sur
le salaire) contre l’hypothèse alternative 2 > 0 (l’expérience a un e¤et positif
sur le salaire).
Dans ce cas, le test de student est basé sur la statistique t suivante:
r
\
t = ^ j = var( ^ j ):
t>c
où c est la valeur critique. La valeur critique est déterminée par le seuil de signi-
…cation choisi par l’économètre, c’est-à-dire la probabilité de rejeter l’hypothèse
nulle alors que cette dernière est correcte. Si l’on choisit un seuil de signi…ca-
tion de 5% — le choix le plus courant — . la valeur critique c est la valeur de
la loi de Student telle que la probabilité d’obtenir une valeur supérieure à c est
égale à 5%, c’est-à-dire
1:29 ln(NB_ETUD)
(0:69)
H0 : j =0
Test d’une seule restriction: le t-test 41
H1 : j 6= 0 (test bilatéral).
jtj > c
où c est la valeur critique. Autrement dit, l’hypothèse nulle sera rejetée si t est
très grand ou si t est très petit. La valeur critique c est également déterminée
par le seuil de signi…cation (choisi de manière arbitraire). Formellement,
Soulignons que, puisque la loi de Student est symétrique, Pr(jtj > cjH0 est
vraie) = 2 Pr(t > cjH0 est vraie):
5.2.3 Tests généraux
H0 : j = bj
H1 : j 6= bj (test bilatéral).
La procédure est exactement la même que celle qui vient d’être décrite.
Exemple 3: Considérons la régression du logarithme du nombre de
crimes et délits commis sur les campus universitaire sur le nombre d’étudiants
et testons l’hypothèse que nombre de crimes augmente proportionnellement
42 Modèle de régression linéaire multiple 3: Inférence
et il faut tester
H0 : 1 = 2:
Le modèle estimé est:
\ = 1:43 + 0:098 COLL + 0:124 UNIV + 0:019 EXPER
ln(SAL)
(0:27) (0:031) (0:035) (0:008)
2
N = 285; R = 0:243
ln q1 = 0 + 1 ln p1 + 2 ln p2 + 3 ln y + u
0 + 1 ln tp1 + 2 ln tp2 + 3 ln ty + u
sera égale à
+ 1 ln p1 + 2 ln p2 +
0 3 ln y + u
pour toute valeur de t si et seulement si
1 + 2 + 3 = 0:
est satisfaite dans 95% des cas. Donc, l’intervalle de con…ance est donné par:
r r
^ c \
var( ^ j ) < j < ^ j + c \
var( ^ ):
j j
Remarques:
(1) Le test de Fisher appliqué à une restriction unique est parfaitement valable.
Dans ce cas, il donne exactement le même résultat que le test de Student.
Tests d’une mutiplicité de restrictions: le F-test 45
En e¤et, on peut monter que la statistique de Fisher pour une seule re-
striction est égale au carré de la statistique de Student. Or, la distribution
de Fisher à (1; N K 1) degrés de liberté est égale à la distribution du
carré d’une variable qui suit une loi de Student à (N K 1).
(2) Le test de Fisher sous la forme de R2 est très pratique. Soulignons que
SSRr =SST (1 Rr2 ) et SSRnr =SST (1 Rnr 2
). Donc:
2
(SSRr SSRnr ) =q (Rur Rr2 ) =q
F = = 2 ) =(N
:
(SSRnr ) =(N K 1) (1 Rur K 1)
(3) Le test de Fisher appliqué à l’ensemble des paramètres. Dans ce cas,
l’hypothèse nulle s’écrit:
H0 : 1 = 0; 2 = 0; : : : ; K =0
On désire tester que les performances des joueurs in‡uencent le salaire. Pour
46 Modèle de régression linéaire multiple 3: Inférence
H0 : 1 = 1; 2 = 0; 3 = 0; 4 = 0:
log(PRIX) log(EVAL) = 0 +u
Le modèle non restreint est le suivant:Or le SSRr du modèle restreint est égal:
SSRr = 1:880
et la statistique de Fisher à
6.1 Convergence
If you can’t get it right as n goes to in…nity, you shouldn’t be in this business.
(C.W..J. Granger).
Intuition de la convergence. Soit ^ j l’estimateur des MCO de j . Pour
tout N , ^ j a une distribution de probabilité. Si l’estimateur ^ j est convergent,
alors sa distribution est de plus en plus ‘concentrée’ autour de sa valeur de
population j , et sa distribution dégénère en un seul point j lorsque N tend
vers l’in…ni.
Hypothèse 300 (moyenne et corrélations nulles): E(u) = 0, cov(xj ; u) =
0, var(xj ) < 1:
Remarque: Cette hypothèse est plus faible que l’hypothèse 3 précédente.
Théorème 8 (convergence des MCO): Sous les hypothèses 1-2, 300 et 4,
les estimateurs des MCO ^ j convergent vers j pour tout j:
plim ^ j = j:
47
48 Modèle de régression linéaire multiple 4: Propriétés asymptotiques des estimateurs
manière suivante:
PN
^ (xi x) yi
1 = Pi=1
N
i=1 (xi x)2
1
PN
N i=1 (xi x) ui
= 1 + 1 PN
N i=1 (xi x)2
Remarques:
y= 0 + 1 x1 + 2 x2 +"
y= 0 + 1 x1 +u
Donc,
plim ^ 1 = 1 + 2 1
où
cov(x1 ; x2 )
1 = = plim ^1
var(x1 )
où nox désigne la quantité d’oxyde nitreux dans l’air. L’e¤et exact en pour-
centage de l’accroissement d’une pièce sur le prix est:
\
log(PRIX) = 0:306 PIECES
PRIXrooms = r+1
) log = 0:306
PRIXrooms = r
PRIXrooms = r+1
) = exp (0:306) = 1:358
PRIXrooms = r
Remarque: Les termes quadratiques peuvent être mélangés avec des ter-
mes logarithmiques. Ils peuvent également être associés à des termes d’interaction.
Exemple 3 (équation de salaire, Wooldridge, p. 214):
\
log(SAL) = 5:95 + 0:0440 EDUC 0:0215 EXPER + 0:00320 EDUC EXPER
(0:24) (0:0174) (0:0200) (0:00153)
n = 935; R2 = 0:135
et plus d’éducation.
N = 526; R2 = 0:116
\
log(PRIX) = 5:56 + 0:168 log(SURF_TER) + 0:707 log(SURF_HAB)
(0:65) (0:038) (0:093)
+0:027 CH_COUCH + 0:054 COLONIAL
(0:029) (0:045)
2
N = 88; R = 0:649
N = 526; R2 = 0:461
\
log SAL_HOM = 0 0:164 SUP_MOY + 0:016 INF_MOY + AUTRES
(0:046) (0:033)
N = 700
\
log SAL_FEM = 0 0:124 SUP_MOY + 0:035 INF_MOY + AUTRES
(0:066) (0:049)
N = 409
SAL = 0 + 1 EDUC + 2 +u
56 Modèle de régression linéaire multiple 5: Speci…cation
SAL = ( 0 + 0) +( 1 + 1) EDUC + u
= 0 + 1 EDUC + u
pour les femmes. Si l’on veut tester que la même droite de régression s’applique
aux hommes et aux femmes, l’hypothèse nulle s’écrit::
H0 : 0 = 0; 1 = 0:
SSR=(N K 1)
R2 = 1
SST=(N 1)
L’ajout d’une variable explicative fait augmenter sa valeur si et seulement si le
t-test de la variable ajoutée est supérieur à 1. Le R2 peut être négatif. Le R2
peut être utilisé pour sélectionner des modèles non emboîtés.
Exemple. Soit deux modèles qui expliquent la recherche en développement
Prédiction et analyse de résidus 57
INTENS_RD = 0 + 1 log(VENTE) + u
INTENS_RD = 0 + 1 VENTE + 2 VENTEs2 + u
(1) Si l’on veut expliquer l’e¤et d’une taxation de l’alcohol sur le nombre
d’accidents de la route,
y= 0 + 1 x1 + 2 x2 + : : : + K xK + u;
Or,
y o ) = y o ) E(^
E(^ eo ) = 0
Donc, l’espérance de l’erreur de prédiction est nulle. La variance de l’erreur de
Problèmes de spéci…cation 59
prédiction est:
eo ) = var(uo y^o ) = var(^
var(^ y o ) + 2u
car uo et y^o sont non corrélés. Donc, il y a deux sources de la variance de e^o ,
mais la première devient négligeable lorsque l’échantillon est grand.
Exemples L’analyse des résidus peut être utile dans diverses circonstances:
pu encore
y= 0 + 1 x1 + ::: + K xK + ^2
1y + ^3
2y + u:
Dans le cas de modèles non emboîtés, d’autres tests ont été développés. Con-
sidérons les modèles suivants:
I: y= 0 + 1 x1 + 2 x2 +u
et
II : y = 0 + 1 log(x1 ) + 2 log(x2 ) + u
Le modèle I n’est pas un cas particulier du modèle II; le modèle II n’est pas
un cas particulier du modèle I. Le test de Mizon–Richard consiste à formuler
un modèle général qui englobe les deux modèles particuliers:
y= 0 + 1 x1 + 2 x2 + 3 log(x1 ) + 4 log(x2 ) + u:
y= 0 + 1 x1 + 2 x2 + 1y
^+ u
et
y = 0 + 1 log(x1 ) + 2 log(x2 ) + 2 y^ + u
où les valeurs prédites y^ sont obtenues par le modèle alternatif, et à tester soit
1 = 0, soit 2 = 0, par un test de Student.
y= 0 + 1 x1 + 2 x2 + 3 x3 +u
x3 = 0 + 1 x3 + .
y = 0 + 1 x1 + 2 x2 + 3 x3 +u
= 0 + 1 x1 + 2 x2 + 3 ( 0 + 1 x3 + )+u
= ( 0 + 3 0) + 1 x1 + 2 x2 + 3 1 x3 +( 3 + u)
ou encore:
y = 0 + 1 x1 + 2 x2 + 3 x3 + e
L’approche consiste donc à régresser y sur x1 ; x2 ; x3 et les estimateurs des MCO
62 Modèle de régression linéaire multiple 5: Speci…cation
(1) Le terme aléatoire u est non corrélé avec x1 , x2 et x3 (ce sont les hypothèses
habituelles des MCO).
(2) Le terme aléatoire u est non corrélé avec x3 (cette hypothèse naturelle
puisque sinon la variable x3 aurait été introduite dans le modèle).
(3) Le terme aléatoire est non corrélé avec x1 , x2 et x3 (c’est ce qui dé…nit
une bonne variable ‘proxy’).
Or, la variable abil n’est pas observée. La solution est d’utiliser la variable QI
comme proxy, avec
log (HABIL) = 0 + 1 QI + .
y = 0 + 1 x1 + 2 x2 + 3 x3 +u
e0 = y y
Propriétés des MCO avec erreurs de mesure 63
y= 0 + 1 x1 + 2 x2 + 3 x3 + (u e0 )
e1 = x1 x1
y= 0 + 1 x1 + (u 1 e1 )
Si l’erreur de mesure n’est pas corrélée avec x1 les estimateurs seront conver-
gents. Cependant, cette hypothèse est peu réaliste. Généralement, on aura:
cov(e1 ; x1 ) = 0
cov(e1 ; x1 ) = cov(e1 ; x1 + e1 )
= E(e1 (x1 + e1 ))
= E(e1 x1 + e21 )
= E(e1 x1 ) + E(e21 )
= E(e21 )
2
= e1
64 Modèle de régression linéaire multiple 5: Speci…cation
= E(x1 u 1 e1 x1 )
= E(x1 u) 1 E(e1 x1 )
= 1 cov(e1 ; x1 )
2
= 1 e1
y= 0 + 1 x1 + 2 x2 +u
H0 : E u2 jx1 ; x2 = 2
u2 = 0 + 1 x1 + 2 x2 +v
H0 : 1 = 2 = 0:
Cependant, comme u2 n’est pas observé, il doit être remplacé par u^2 :
u^2 = 0 + 1 x1 + 2 x2 +v
65
66 Heteroscédasticité
régression est:
Ru2 =K
F =
(1 Ru2 ) =(n K 1)
Le test de White suppose une relation est quadratique:
u2 = 0 + 1 x1 + 2 x2 + 2
3 x1 + 2
4 x2 + 5 x1 x2 +v
H0 : 1 = 2 = 3 = 4 = 5 = 0:
yi = 0 + 1 xi + ui
avec
var(ui jxi ) = 2i
Dans ce cas, l’estimateur des MCO s’écrit:
PN
^ 1 = 1 + Pi=1 (xi xi )ui
N
i=1 (xi x)2
et donc:
PN ! PN
(xi xi )ui (xi xi )2 2
var( ^ 1 ) = var Pi=1
N
= hPi=1 i
i2
i=1 (xi x)2 N
x)2
i=1 (xi
Estimation par les Moindres Carrés Pondérés 67
var(ujx) = 2 h(x)
où h(x) est une fonction positive connue des variables explicatives. Puisque
var(ui jxi ) = E(u2i jxi ) = 2 h(xi ), la variance de ui =h(xi ) est égale à
0 !2 1
ui 1
E@ p xi A = E u2i xi = 2
h(xi ) h(xi )
i=1
h(xi )
donne:
X
N
2
(yi 0 xi0 1 xi1 2 xi2 ::: K xiK ) :
i=1
Les tests de Student et de Fisher peuvent être utilisés sur le modèle transformé.
Le Théorème de Gauss-Markov est également apllicable.
Exemple. Le modèle initial est:
Estimation par les Moindres Carrés Pondérés 69
2
EPARi = 0 + 1 REVi + ui avec var(ui jREVi ) = REVi
Le modèle transformé est:
EPARi 1 p
p = 0p + 1 REVi + ui
REVi REVi
Estimations
(1) (2) (3) (4)
Ind. Var
OLS WLS OLS WLS
0:147 0:172 0:109 0:101
REV
(0:058) (0:057) (0:071) (0:077)
67:6 6:8
TAILLE _ _
(222:9) (168:4)
151:8 139:4
EDUC _ _
(117:2) (100:5)
0:28 21:7
AGE _ _
(50:03) (41:3)
518:3 137:2
NOIR _ _
(1308:0) (844:5)
124:8 124:9 1605:4 1854:8
CONST
(655:3) (480:8) (2830:7) (2351:8)
Obs. 100 100 100 100
R2 0:0621 0:0853 0:0828 0:1042
70 Heteroscédasticité
En général, le fonction n’est pas observée mais doit être estimée. Pour cela, il
faut choisir une forme fonctionnelle pour la variance:
2
var(ujx) = exp( 1 x1 + : : : + K xK ):
u2 = 2
exp( 1 x1 + : : : + K xK ) ;
où E( ) = 1. Si est indépendant de x1 ; : : : ; xK ,
log u2 = log 2
+ 1 x1 + ::: + K xK + log ( ) ;
log u2 = 0 + 1 x1 + ::: + K xK + e;
\
exp log u2 )i
(^ = exp ^ 0 exp ^1 x1i + : : : + ^K xKi
= exp ^ 0 [i )
h(x
Estimation par les Moindres Carrés Pondérés 71
Exemple.
\ =
CIGS 3:64 + 0:880 log(REV) 0:751 log(PRIX_CIGS) 0:501 EDUC
(24:08) (0:728) (5:773) (0:167)
2
+0:771 AGE 0:0990 AGE 2:83 RESTAURN
(0:167) (0:0017) (1:11)
\ =
CIGS 5:64 + 1:30 log(REV) 2:94 log(PRIX_CIGS) 0:463 EDUC
(17:80) (0:44) (4:46) (0:120)
2
+0:482 AGE 0:0056 AGE 3:46 RESTAURN
(0:097) (0:0009) (0:80)
9 Régression avec séries temporelles:
Bases
9.1 Caractéristiques des séries temporelles:
Les observations sont ordonnées
Les observations ne sont pas issues d’un échantillon aléatoire
– Rappel: un échantillon de variables (yi ) de la population représentée par
la densité f (y; ) est aléatoire si les variables yi sont indépendantes et
ont une même densité f (y; ).
L’ensemble des observations est appelé “processus stochastique”(au lieu de
“échantillon aléatoire”).
yt = 0 + 1 zt + ut
INFt = 0 + 1 UNEMt + ut
Modèle de criminalité:
yt = 0 + 1 zt + 2 zt 1 + 3 zt 2 + ut
73
74 Régression avec séries temporelles: Bases
Modèle de fertilité:
E(ut jx0 ; x1 ; : : : ; xt ; : : : ; xT ) = 0:
Remarques:
(1) Cette hypothèse est plus forte que l’hypothèse alternative: E(ut jxt ) =
0; que l’on quali…e d’exogénéité contemporaine. L’hypothèse 2 est celle
d’exogénéité stricte.
(2) L’hypothèse 2 remplace l’hypothèse d’échantillon aléatoire. Dans le cas
d’un échantillon aléatoire, l’exogénéité “contemporaine”implique l’exogénéité
structe.
(3) L’hypothèse 2 exclut la possibilité que des changements aujourd’hui dans
Propriétés en échantillon …ni des MCO sous les hypothèses classiques 75
TXCRIM = 0 + 1 NB_POL + ut
corr(ut ; us jx0 ; x1 ; : : : ; xt ; : : : ; xT )
yt = 0 + 1t + et
log(yt ) = 0 + 1t + et
Dans ce cas:
yt = exp ( 0 + 1t + et )
Inférence sous les hypothèses classiques 77
et
yt yt 1
1 = log(yt ) ( ) = le taux de croissance de yt :
yt 1
9.4.1.2 Utilisation de variables tendancielles dans une régression
Cela ne viole pas nécessairement les hypothèses 1-6. Cependant, on doit pren-
dre en compte le fait que yt peut également être in‡uencé par une tendance
(sinon problème de variable manquante et biais).
yt = 0 + 1 xt + 2t + ut
9.4.1.3 Détendancialisation
y•t = yt ^0 ^ 1t
yt = ^ 0 + ^ 1 xt + ^ 2 t
(1) Régresser yt et xt sur t et une constante, et récupérer les résidus: y•t et x•t .
C’est-à-dire: y•t = yt ^ 0 ^ 1 t. En un sens, y•t est une série dont on a
enlevé la tendance. En e¤et, y•t est non corrélé avec t.
(2) Régresser y•t sur x•t . Cela donne: ^ 1 . Donc, les estimateurs peuvent être
obtenus par une régressions sur des données détendancialisées.
En général, les R2 obtenus sur séries temporelles sont très élevés. La raison est
la suivante. La formule du R2 ajusté est:
2
u
R2 = 1 :
^ 2y
78 Régression avec séries temporelles: Bases
L’estimateur ^ 2u est non biaisé (si la tendance est introduite dans la régression).
P
Mais, l’estimateur ^ 2y = N 1 1 Tt=1 (yt y)2 est biaisé si y est tendanciel. Par
exemple, si
yt = 0 + 1 t + et :
Le principe est alors de calculer le R2 à partir d’une série qui aura été préal-
ablement détendancialisée, et donc de régresser y•t sur xt et t.
9.4.3 Utilisation de variables saisonnières dans une régression et
désaisonnalisation
y•t = yt ^0 ^ 1t
où fut : t = 1; : : : ; T g est une suite de variables aléatoires. De plus, f(xt1 ; xt2 ; : : : ; xtK ; yt ) :
t = 1; : : : ; T g est un processus stochastique stationnaire en covariance et faible-
ment dépendant.
Hypothèse 2’(moyenne conditionnelle nulle): Pour tout t, E(ut jxt ) =
0:
Hypothèse 3’(absence de colinéarité parfaite): Dans l’échantillon,
les variables indépendantes ne doivent être ni constantes, ni des combinaisons
linéaires des autres.
Théorème 6 (convergence des MCO): Sous les hypothèses 10 30 , les
estimateurs des MCO sont non convergents: plim ^ j = j .
2
Hypothèse 4’(homoscédasticité): Pour tout t: var(ut jxt ) =
Hypothèse 5’ (absence d’autocorrélation): Pour tout t 6= s,
corr(ut ; us jxt ; xs ) = 0
Théorème 7 (normalité des estimateurs MCO): Sous les hypothèses
10 50 , les estimateurs des MCO sont asymptotiquement distribués selon une
loi normale . De plus, sous les hypothèseses nulles, les tests de Student, et les
tests de Fisher sont asymptotiquement valides.
11 Autocorrélation
11.1 Propriétés des MCO en présence d’autocorrélation
Les estimateurs ne sont plus BLUE en présence d’autocorrélation. Considérons:
ut = ut 1 + et
avec j j < 1 et
E(et jut 1 ; ut 2 ; : : :) = 0
var(et jut 1 ; ut 2 ; : : :) = 2e
On suppose que:
E(ut ) = E(ut 1 ) = 0:
Un processus autorégressif d’ordre 1.
2
var(ut ) = var(ut 1 ) + var(et )
Donc
2 2 2 2
u = u + e
2
2 e
u = 2
1
2
E(ut ut 1 ) = E(ut 1 ) + E(et ut 1 )
cov(ut ; ut 1 ) = 2u
cov(ut ; ut 2 ) = 2 2u
Dans le modèle:
y t = 0 + 1 xt + ut
Pour simpli…er, on suppose que x = 0. Les estimateurs des MCO sont:
P
^ 1 = 1 + Pxt ut
x2t
81
82 Autocorrélation
P
xt ut
var ^ 1 = var P 2
x
P t
var ( xt ut )
= P 2
( x2t )
P 2 P P
xt var (ut ) + 2 Tt=11 Tj=1t xt xt+j cov (ut ; ut+j )
= P 2
( x2t )
2
PT 1 PT t j
j=1 xt xt+j
2
u u t=1
= P 2 +2 P 2
xt ( x2t )
ut = ut 1 + et
E(et jut 1 ; ut 2 ; : : :) = 0
var(et jut 1 ; ut 2 ; : : :) = 2e
Hypothèse:
H0 =0
11.2.0.1 Durbin-Watson
PT
(^
t=2ut u^t 1 )2
DW = PT
^2t
t=1 u
PT P PT
^2t + Tt=2
t=2 u u^2t 1 2 t=2 u^2t u^2t 1
= PT
^2t
t=1 u
' 2 (1 ^)
If DW < dL ; rejet.
If DW > dU ; non rejet.
Correction de l’autocorrélation 83
y1 = 0 + 1 x1 + u1
11.5 Annexe
Les formules suivantes sont régulièrement utilisées dans le cours:
!
X
N X
N X
N X
N
xi (xi x) = xi (xi x) x xi xi
i=1 i=1 i=1 i=1
!
XN XN
= xi (xi x) x xi Nx
i=1 i=1
!
X
N X
N
= xi (xi x) x (xi x)
i=1 i=1
XN
= (xi (xi x) x (xi x))
i=1
XN
= (xi x)2
i=1
!
X
N XN X
N X
N
xi (yi y) = xi (yi y) x yi yi
i=1 i=1 i=1 i=1
!
XN XN
= xi (yi y) x yi Ny
i=1 i=1
!
XN XN
= xi (yi y) x (yi y)
i=1 i=1
XN
= (xi (yi y) x (yi y))
i=1
X
N
= (xi x) (yi y)
i=1