Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Mémoire Régression Simple Et Multiple

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 66

Ministère de l’Enseignement Supérieur et de la Recherche Scienti…que

Université Abdelhamid Ibn Badis de Mostaganem

Faculté des Sciences Exactes et de l’Informatique

Département de Mathématiques et de l’Informatique


Filière : Mathématiques
MÉMOIRE DE FIN D’ÉTUDES
Pour l’Obtention du Diplôme de Master en Mathématiques
Option : Analyse Fonctionnelle

Présenté par :
BERRADIA Hayet

THÈME :
La régression linéaire simple et multiple

Soutenu le : Juin 2021


Devant le jury composé de :
BOUABDELLI Rabab MCB Université de Mostaganem Président
KAISSERLI Zineb MCA Université de Mostaganem Examinateur
BENSIKADDOUR Djemaia MCB Université de Mostaganem Encadrant

Année Universitaire : 2020-2021


Table des matières

Remerciements i

Résumé ii

Introduction 1

1 Généralités sur les séries statistiques 2


1.1 Vocabulaire statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Séries statistiques doubles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Traitement des données et représentation graphique . . . . . . . . . . . 3
1.2.2 Covariance d’une série statistique double . . . . . . . . . . . . . . . . . 6
1.3 Ajustement a¢ ne d’une série statistique double . . . . . . . . . . . . . . . . . 6
1.3.1 Méthodes d’ajustement a¢ ne d’une série statistique double . . . . . . . 7
1.3.2 Coe¢ cient de corrélation linéaire . . . . . . . . . . . . . . . . . . . . . 10

2 La régression linéaire simple 11


2.1 Estimation des paramètres par la méthode des moindres carrés ordinaires (MCO) 11
2.2 Les modèles de la régression linéaire simple . . . . . . . . . . . . . . . . . . . . 13
2.3 Les tests d’hypothèses dans une régression linéaire simple . . . . . . . . . . . . 14
2.3.1 Les espérances mathématiques, les variances et les covariances des es-
timateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.2 Analyse de la variance . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
TABLE DES MATIÈRES 3

2.3.3 Coe¢ cient de détermination . . . . . . . . . . . . . . . . . . . . . . . . 27


2.3.4 Tests des coe¢ cients et les intervalles de con…ance . . . . . . . . . . . . 29
2.3.5 Estmation des paramètres par des intervalles de con…ance . . . . . . . . 35
2.3.6 Analyse de la variance et test de Fisher . . . . . . . . . . . . . . . . . . 36

3 Régression linéaire multiple 43


3.1 Modèle de la régression multiple . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.1.1 La forme matricielle du modèle de la régression multiple . . . . . . . . 44
3.2 Estimation des coe¢ cients de régression . . . . . . . . . . . . . . . . . . . . . 45
3.2.1 Propriétés des estimateurs du modèle de la régression multiple . . . . . 46
3.2.2 Coe¢ cient de détermination . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Les tests statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.1 Le test de student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2 Test de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.4 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Conclusion 57

Annexe1 "table de Student" 58

Annexe 2 "table de Fisher" 59

Annexe 3 "table de Fisher" 60

Bibliographie 61
Remerciements

Tout d’abord, ce travail ne serait pas aussi riche et n’aurait pas pu avoir le jour sans l’aide et
l’encadrement de Dr Dj. BENSIKADDOUR, je la remercie pour la qualité de son encadrement
exceptionnel, pour sa patience, sa rigueur et sa disponibilité durant la préparation de ce
mémoire.

Je tiens à remercier Dr R. BOUABDELLI, maître de conférence à l’université de Mostaga-


nem, qui m’a fait l’honneur de présider mon jury et d’avoir accepté d’évaluer mon mémoire.

Je remercie très vivement Dr Z. KAISSERLI, maître de conférence à l’université de Mosta-


ganem, d’avoir accepté d’examiner ce travail.

Mes remerciements s’adressent aussi à tous mes professeurs pour leurs générosités et la grande
patience dont ils ont su faire preuve malgré leur charges académiques et professionnelles.
Résumé

En statistique appliquée, un modèle de régression linéaire est un modèle de régression qui


cherche à établir une relation linéaire entre une variable Y , dite expliquée, et une ou plusieurs
variables X, dites explicatives. Son objectif est de trouver un modèle de prévision de Y en
fonction de X, autrement dit la variable exliquée Y est modélisée par une fonction a¢ ne
d’une autre variable X:
Ce mémoire est consacré à présenter la régression linéaire (simple et multiple), sa signi…cation,
son emploi, et l’interprétation de ses paramètres.
INTRODUCTION

L’analyse de régression peut être dé…nie comme la recherche de la relation stochastique qui
lie deux ou plusieurs variables. Son champ d’application recouvre de multiples domaines,
parmi lesquels on peut citer la physique, l’astronomie, la biologie, la chimie, la médecine, la
géographie, la sociologie, l’histoire, l’´économie, la linguistique et le droit.
La régression est l’une des méthodes les plus connues et les plus appliquées en statistique
pour l’analyse de données quantitatives. Elle est utilisée pour établir une liaison entre une
variable quantitative et une ou plusieurs autres variables quantitatives.
Sous la forme d’un modèle, si on s’intéresse à la relation entre deux variables, on parlera de
régression simple en exprimant une variable en fonction de l’autre. Si la relation porte entre
une variable et plusieurs autres variables, on parlera de régression multiple.
La régression linéaire simple et multiple est une classe particulière de modèle de règression
qui sert à expliquer une variable Y , appelée variable endogène par une ou plusieurs variables
explicatives dites exogènes a travers une fonction a¢ ne.
Ce travail se situe dans le cadre de l’analyse des données quantitatives, il est composé de
trois chapitres. Le premier consiste à présenter des généralités sur les séries statistiques, le
deuxième chapitre est consacré à étudier la régression linéaire simple où on va estimer les
paramètres b et a du modèle
Yt = b + aXt + "t

par la méthode des moindres carrés ordinaire (MCO) et tester sa signi…cativité. Finalement,
dans le dernier chapitre on généralise les résultats du chapitre 2 en traitant la régression
multiple représentée par le modèle suivant :

Yt = b0 + b1 x1t + b2 x2t + ::: + bk xkt + "t ; pour t = 1; :::; n

où b0 ; b1 ; b2 ; :::; bk sont les paramètres du modèle.


Chapitre 1

Généralités sur les séries statistiques

Ce chapitre sert à rappeler essentiellement des dé…nitions, outils et notions dont aura besoin
tout au long de ce travail. Pour plus de détails, on invite le lecteur à consulter les références
([2], [5], [7], et [9]).

1.1 Vocabulaire statistique


Le terme statistique désigne à la fois un ensemble de données d’observations, et l’activité qui
consiste en leur traitement et leur interprétation.
* La population Statistique : est l’ensemble d’individus sur lequel des méthodes et des
techniques de présentation et de description statistique sont appliquées. Par exemple :

1/ La population d’un pays.

2/ Les fonctionnaires d’un établissement.

3/ Le parc automobile français.

* Les individus statistiques ou unités statistiques : sont les éléments de la population


statistique. On associe à ces éléments des propriétés appelées "caractères".
Un caractère peut être :

1/ Qualitatif : couleur, sexe, e¢ cacité d’un traitement,...

2/ Quantitatif : grandeur, âge, taille, poids,...

On distingue deux types de caractère quantitatif :


1.2 Séries statistiques doubles 3

1/ discret.

2/ continu.

Une étude statistique est en fait l’étude de propriétés caractéristiques "caractères" de la


population considérée. Généralement le nombre d’individus d’une population est très grand,
pour cela l’étude statistique se restreint à une partie de cette population supposée assez
représentative qu’on appelle "échantillon".
Si l’échantillon est composé de n individus qui forment la population alors x = (x1 ; x2 ; :::; xn )
est la série statistique associée au caractère étudié et n est la taille de l’échantillon.

1.2 Séries statistiques doubles


Il arrive fréquemment d’étudier deux caractères quantitatifs di¤érents x et y d’un échantillon
d’une même population pour déterminer s’il existe une relation entre eux (par exemple :
les dépenses et les revenus d’une société) dans le sens que les valeurs de l’un peuvent être
obtenues à partir de l’autre à laide d’une correspondance, on dit alors que x et y sont deux
variables statistiques dépendantes.
En passant aux séries des centres, on pourra toujours supposer que les séries considérées sont
à valeurs quantitatives discrètes (isolées).

1.2.1 Traitement des données et représentation graphique

Pour chaque individu de l’échantillon (de la population), on relève la valeur de deux caractères
x et y, on obtient alors une liste de couples de nombres (xi ; yj )1 i k , k; l 2 N que l’on
1 j l
peut présenter sous forme d’un tableau à deux entrées

x=y y1 y2 ... yj . yl e¢ ctif marginal de x


x1 n11 n12 ... n1j . n1l n1:
x2 n21 n22 ... . . . .
xi ni1 ni2 ... nij . nil n:
: . . ... . . . .
xi nk1 nk2 ... nkj . nkl nk:
e¢ ctif marginal de y n:1 n:2 ... n:j . n:l n
* x1 ; x2 ; :::::; xk sont les valeurs du caractère x:

* y1 ; y2 ; :::::; yl sont les valeurs du caractère y:


1.2 Séries statistiques doubles 4

* nij est l’e¤ectif du couple (xi ; yj ) pour tout 1 i k et 1 j l:


X
l
* ni : est l’e¤ectif marginal de xi ; ni : = nij :
j=1

X
k
* n: j est l’e¤ectif marginal de yj ; n: j = nij :
i=1

X
k X
l X
k X
l
* n est l’e¤ectif total, n = nij = ni : = n: j :
i=1 j=1 i=1 j=1

Soit la série statistique double (xi ; yj ; nij )1 i k où x1 ; x2 ; :::; xk sont les di¤érentes valeurs
1 j l
du premier caractère x et y1 ; y2 ; :::; yl sont les valeurs du second caractère y:

Dé…nition 1.2.1 "Nuage de points" Dans un repère orthogonal du plan, l’ensemble des
points Mij de coordonnées (xi ; yj ) constitue le nuage de points associé à la série statistique
double donnée ci-dessus.

Figure 1 : nuage de points

Dé…nition 1.2.2 "Le point moyen" On appelle le point moyen du nuage de points associé
à la série statistique double (xi ; yj ; nij )1 i k le point G de coordonnées (x; y) où x et y sont
1 j l
les moyennes arithmétiques des séries statistiques (xi ; ni: )1 i k et (yj ; n:j )1 j l respectivement
dé…nies comme suit :
1X
k
x= xi
n i=1
et
1X
l
y= yj :
n j=1
1.2 Séries statistiques doubles 5

Exemple 1.2.1 Le tableau suivant donne le chi¤re d’a¤aire réalisé au cours des 6 derniers
mois par un site de vente en ligne en fonction du nombre de commandes reçues.

Nombre de commandes xi 6400 8350 9125 9600 10050 12000


Chi¤re d’a¤airemensuel yi (DA) 250000 320000 335000 350000 370000 400000

a. Représentation du nuage de points

Figure 2 : Nuage de points exp 1.2.1

b. Calcul du point moyen

1X
k
x = xi
n i=1

1X
6
= xi
6 i=1
= 9254; 166667 ' 9254; 17

et

1X
l
y = yj
n j=1

1X
6
= yj
6 j=1
= 337500 DA

D’où le point moyen est G(9254; 17 ; 337500):


1.3 Ajustement a¢ ne d’une série statistique double 6

1.2.2 Covariance d’une série statistique double

Dé…nition 1.2.3 On appelle covariance d’une série statistique double (xi ; yj ; nij )1 i k le
1 j l
nombre Cov(x; y) donné par :

Cov(x; y) = xy xy
!
1 X
k X
l
= nij xi yj xy
n i=1 j=1

où x et y sont les moyennes arithmétiques des deux séries simples x et y respectivement


dé…nies précédemment.

Remarque 1.2.1 La covariance mesure les dispersions des deux variables x et y autour de
leurs moyennes.

1/ Si Cov(x; y) est nulle, on dit que les deux variables x et y se produisent indépendamment.

2/ Si Cov(x; y) > 0; les deux variables x et y sont liées positivement ) l’une augmente,
l’autre augmente aussi.

3/ Si Cov(x; y) < 0; les deux variables x et y sont liées négativement ) l’une augmente,
l’autre diminue.

Proposition 1.2.1 "Propriétés de la covariance" Soient x et y deux variables statis-


tiques et a; b; a0 et b0 des constantes réelles, alors :

1/ Cov(x; x) = V ar(x):

2/ Cov(x; y) = Cov(y; x):

3/ Cov(ax + b; a0 y + b0 ) = aa0 Cov(x; y):

1.3 Ajustement a¢ ne d’une série statistique double


On considère la série statistique double (xi ; yj ; nij )1 i k ; avec un nuage de points Mij (xi ; yj )
1 j l
associé.
Si les points de nuage paraissent presque alignés, on peut chercher une relation de la forme
y = ax + b où a et b sont deux constantes réelles telles que a est non nulle. Cette relation
1.3 Ajustement a¢ ne d’une série statistique double 7

exprime de façon approchée les valeurs de la variable statistique y en fonction des valeurs de
la variable x: Alors, graphiquement, il s’agit de déterminer l’équation de la droite qui passe
au plus prés de la majorité des points du nuage.

1.3.1 Méthodes d’ajustement a¢ ne d’une série statistique double

Il existe de nombreuses méthodes d’obtenir un ajustement a¢ ne d’une série statistique


double, les plus utilisées sont :

Méthode de Mayer

La détermination d’un ajustement a¢ ne d’une série statistique double par la méthode de


Mayer se fait en trois étapes :

i/ Découper la série statistique double en deux sous-séries de même e¤ectif, si n l’e¤ectif


total de la population est impair, on peut mettre la valeur surnuméraire du caractère
dans n’importe laquelle des deux sous-séries.

ii/ Calculer les coordonnées des deux points moyens G1 et G2 associés à ces deux sous-séries.

Trouver l’équation de la droite qui passe par les deux points G1 et G2 : Cette droite est dite
la droite de Mayer, elle constitue un ajustement a¢ ne de la série statistique double.

Exemple 1.3.1 On reprend l’exemple (1.2.1). On partage le nuage de points en deux groupes
de même importance suivant les valeurs croissantes de xi , et on calcule les coordonnées des
points moyens G1 et G2 de chaque groupe de points.

Les coordonnées de G1 (x1 ; y1 ) avec x1 = moyenne des valeurs x du premier groupe et y1 =


moyenne des valeurs y du même groupe.

6400 + 8350 + 9125


x1 = = 7958; 33:
3
et

250000 + 320000 + 335000


y1 = = 301666; 67:
3
Donc G1 (7958; 33 ; 301666; 67) :
1.3 Ajustement a¢ ne d’une série statistique double 8

De manière similaire on trouve les coordonnées du point moyen G2 (x2 ; y2 ) du deuxième


groupe.
9600 + 10050 + 12000
x2 = = 10550
3
et
350000 + 370000 + 400000
y2 = = 373333; 33:
3
D’où G2 (10550 ; 373333; 33) :
On trace la droite d’ajustement qui passe par les deux points G1 (7958; 33 ; 301666; 67) et
G2 (10550 ; 373333; 33) ; elle a la forme y = ax + b où

373333; 33 301666; 67
a= = 27:07
10550 7958; 33
Et

b = 301666; 67 27:07 7958; 33 = 86932:

Ainsi, la droite d’ajustement a¢ ne a pour équation : y = 27:07x + 86932:

Figure 3 : Ajustement linaire par la mthode de Mayer

Méthode de moindres carrés


1.3 Ajustement a¢ ne d’une série statistique double 9

La méthode de moindres carrés consiste à trouver l’équation : y = ax + b de la droite (D)


dite la droite de régression y en x; telle que
Cov(x; y)
a= et b = y a x:
V ar(x)
De façon similaire on peut chercher l’équation x = a0 y + b0 de la droite (D) dite la droite de
régression x en y; où
Cov(x; y)
a0 = et b0 = x a0 y:
V ar(y)
Remarque 1.3.1 Les deux droites de régression données ci-dessous passent par le point
moyen G (x; y) :

Exemple 1.3.2 On considère 5 spécimens fossiles d’un animal disparu pour lesquels on pos-
sède les mesures de la longueur en (cm) de leur humérus x et de leur fémur y:

1/ Le tableau suivant regroupe les résultats obtenus

t xt yt x2t yt2 xt yt
1 44 40 1936 1600 1760
2 65 60 4225 3600 3900
3 71 59 5041 3481 4189
4 75 65 5625 4225 4875
5 87 77 7569 5929 6699
Moyenne 68,4 60,2 4879,2 3767 4284,6

V ar(x) = x2 x2 = 4879; 2 (68; 4)2 = 200; 64 cm2

V ar(y) = y 2 y 2 = 3767 (60; 2)2 = 142; 96 cm2

Cov(x; y) = xy x y = 4284; 6 (68; 4) (60; 2) = 166; 92 cm2

2/ On peut déterminer, par la méthode des moindres carrées ordinaires, l’équation y = ax+b
de la droite (D) de régression de x et y: Comme
Cov(x; y) 166:92
a
^= = = 0; 83194
V ar(x) 200:64
et

b = y a x = 60; 2 0; 83194 68; 4

= 3; 2955:
1.3 Ajustement a¢ ne d’une série statistique double 10

Alors
(D) : y = 0; 83194x + 0; 83194:

3/ De façon similaire on peut chercher l’équation : x = a0 y + b0 de la droite (D0 ) dite la droite


de régression x en y:
Cov(x; y) 166; 92
a0 = = = 1; 16759
V ar(y) 142; 96
et
b0 = x a0 y = 68; 4 1; 16759 60; 2 = 70; 28892:

D’où
(D0 ) : x = 1; 16759y + 70; 28892:

1.3.2 Coe¢ cient de corrélation linéaire

Dé…nition 1.3.1 On appelle coe¢ cient de corrélation linéaire du couple (x; y), le nombre
réel r(x; y) déduit de la covariance et donné par :
Cov(x; y)
r(x; y) = :
x y

1/ Le coe¢ cient de corrélation ne dépend pas des unités de mesure des variables statistiques
étudiées.

2/ La valeur du coe¢ cient de corrélation est comprise entre 1 et 1 :

jr(x; y)j 1:

3/ L’absence de corrélation (r(x; y) = 0) implique l’absence de relation linéaire entre les


variables statsitiques:

4/ Si r(x; y) > 0, alors les variables aléatoires x et y varient dans le même sens, et elles
varient dans le sens contraire si r(x; y) < 0:
3
5/ Lorsque la corrélation est forte r(x; y) 4
les deux droites de régression sont très proches
et l’ajustement linéaire du nuage de points sera possible, dans le cas contraire le nuage
de points ne peut pas être ajusté par une droite, mais il se peut trouver une fonction
qui donne la variabilité de x par rapport à y:
Chapitre 2

La régression linéaire simple

Dans ce chapitre, on va introduire le modéle de la régression linéaire. Comme il s’agit d’un


modéle avec une seule variable explicative, on parle de régression simple. On va ainsi dé…nir
la droite de régression à partir des données d’un échantillon par la méthode des moindres
carrés.

2.1 Estimation des paramètres par la méthode des moindres


carrés ordinaires (MCO)
Soit le modèle de régression suivant :

Yt = b + aXt + "t (2.1.1)

L’estimation des paramètres b et a est obtenue en minimisant la somme des carrés des erreurs

X
n X
n X
n
M in "2t = M in (Yt b aXt )2 = M in S2
t=1 t=1 t=1

Pour que cette fonction ait un minimum, il faut que les dérivées par-rapport à b et a soient
nulles.
@S X n X
n X
n
=0,2 (Yt b aXt ) ( 1) = 0 ) Yt = nb + a Xt (2.1.2)
@b t=1 t=1 t=1
et

@S X n X
n X
n X
n
=0,2 (Yt b aXt ) ( Xt ) = 0 ) Yt Xt = b Xt + a Xt2 (2.1.3)
@a t=1 t=1 t=1 t=1
2.1 Estimation des paramètres par la méthode des moindres carrés ordinaires
(MCO) 12

En notant ^b et a
^ les solutions des équations (2.1.2) et (2.1.3), on obtient

X
n X
n
Yt Xt
^b = t=1
^ t=1
a
n n
ou
^b = Y a
^X (2.1.4)

car
X
n X
n
Yt Xt
t=1 t=1
Y = et X =
n n
sont les moyennes arithmétiques de Y et X respectivement.
En remlaçant la valeur de ^b dans l’équation (2.1.3), on obtient
!
X
n X
n X
n X
n
Yt Xt Y Xt = a Xt2 X Xt
t=1 t=1 t=1 t=1

ce qui donne
X
n X
n
Yt Xt Y Xt
t=1 t=1
a
^ =
Xn X
n
Xt2 X Xt
t=1 t=1
X
n
Yt Xt nY X
t=1
=
Xn
Xt2 nX 2
t=1
X
n
Yt Y Xt X
t=1
=
X
n
2
Xt X
t=1

Les estimateurs des MCO du modèle de régression linéaire simple (2.1.1) sont :
2.2 Les modèles de la régression linéaire simple 13

X
n
Yt Xt nY X
t=1
a
^ =
Xn
Xt2 nX 2
t=1
X
n
Yt Y Xt X
t=1
=
X
n
2
Xt X
t=1

et

^b = Y a
^X:

2.2 Les modèles de la régression linéaire simple


Dé…nition 2.2.1 Le modèle de régression linéaire simple est une variable endogène (dépen-
dante) expliquée par une seule variable exogène (indépendante) mise sous forme mathématique
suivante :

Yt = b + aXt + "t ; t = 1; :::; n

avec

*/ Yt : La variable endogène (dépendante, à expliquer) à la date t.

*/ Xt : La variable exogène (indépendante, explicative) à la date t.

*/ b; a : Les paramètres inconnus du modèle.

*/ "t : L’erreur aléatoire du modèle.

*/ n : Nombre d’observations.

Remarque 2.2.1 La régression linéaire simple a deux modèles :

1/ Le modèle théorique (modèle non ajusté)

Yt = b + aXt + "t
2.3 Les tests d’hypothèses dans une régression linéaire simple 14

2/ Le modèle estimé (modèle ajusté)

Yt = ^b + a
^Xt + et

avec
Y^t = ^b + a
^Xt

et

et = Yt Y^t

et = Yt ^b a
^Xt

et : est le résidu du modèle.

2.3 Les tests d’hypothèses dans une régression linéaire


simple
Les tests d’hypothèses statistiques sur les paramètres (les coe¢ cients) du modèle de la ré-
gression simple et l’établissement des intervalles de con…ance qui permettent de véri…er la
validité du modèle.
Pour tester des hypothèses sur les paramètres a et b, on suppose que les erreurs et sont indé-
2
pendantes et normalement distibuées. C’est-à-dire les erreurs suivent la loi normale N (0; ).
Soit le modèle de régression simple

Yt = b + aXt + "t (2.3.1)

Les hypothèses du modèle : Le modèle (2.3.1) possède les propriétés suivantes :

1. E("t ) = 0 8t : L’erreur est centrée.

2. E("2t ) = 2
"; 8t : La variance de l’erreur est constante.

3. Cov("t ; "t0 ) = 0; 8"t 6= "t0 : Les erreurs ne sont pas auto-correlées.

4. Cov(Xt ; "t0 ) = 0 : L’erreur n’est pas corrélée avec la variable X .

5. La variable X n’est pas aléatoire.

6. Le modèle est linéaire en X par rapport aux paramètres.


2.3 Les tests d’hypothèses dans une régression linéaire simple 15

2.3.1 Les espérances mathématiques, les variances et les covariances


des estimateurs

On pose les nouvelles variables (changement de variables)

xt = Xt X et yt = Yt Y

1/ L’espérance mathématique de a
^:

Soit le modèle suivant :


Yt = ^b + a
^Xt + et :

D’après la méthode des MCO, on a :


X
n
Yt Y Xt X
t=1
a
^=
X
n
2
Xt X
t=1

ce qui implique
X
n
yt xt
t=1
a
^= (2.3.2)
Xn
x2t
t=1

On remplace la valeur yt dans (2.3.2), on obtient :


X
n
x t Yt Y
t=1
a
^ =
X
n
x2t
t=1
X
n X
n
x t Yt Y xt
t=1 t=1
= :
Xn X
n
x2t x2t
t=1 t=1

Alors
X
n
x t Yt
t=1
a
^= : (2.3.3)
Xn
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 16

Car
X
n X
n
xt = Xt X = nX nX = 0
t=1 t=1

On remplace maintenant Yt = b + aXt + "t dans l’équation ( 2.3.3), on obtient

X
n
xt (b + aXt + "t )
t=1
a
^ =
X
n
x2t
t=1
X
n X
n X
n
b xt + a xt Xt + x t "t
t=1 t=1 t=1
=
X n
x2t
t=1
X
n Xn
a xt Xt + x t "t
t=1 t=1
=
X
n
x2t
t=1
X
n X
n
a xt xt + X x t "t
t=1 t=1
= +
X
n Xn
x2t x2t
t=1 t=1
0 1 0 1
X
n X
n X
n

B x2t C B xt C x t "t
B t=1 C B t=1 C t=1
= aB
BX
C + Xa B
C BX
C+
C
@
n n X
n
2A @ 2A
xt xt x2t
t=1 t=1 t=1

Il résulte alors
X
n
x t "t
t=1
a
^ =a+ (2.3.4)
Xn
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 17

En passant à l’espérance mathématique, on trouve


0 1
X
n

B x t "t C
B t=1 C
a) = E (a) + E B
E (^ B X n
C
C
@ 2 A
xt
t=1
X
n
xt E ("t )
t=1
= E (a) +
X
n
x2t
t=1

Or, d’après l’hypothèse (1)


E ("t ) = 0

alors,
E (^
a) = a:

Finalemet a est un estimateur sans biais.

2/ L’espérance mathématique de ^b :

On a

^b = Y a
^X
Xn
xt yt
t=1
= Y X
Xn
x2t
t=1
0 1
Xn

B xt C
B t=1 C
= Y XB
BX n
C Yt
C Y
@ 2A
xt
t=1
0 1
Xn

B x t Yt C
B t=1 C
^b = Y XB
B X n
C:
C
@ A
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 18

D’ou 0 1

Xn B C
B1 Xxt C
^b = B C Yt
Bn X
n C
t=1 @ A
x2t
t=1

Or que
Yt = b + aXt + "t ;

donc
0 1 0 1 0 1

Xn B C
Xn B C
Xn B C
B1 Xxt C B1 Xxt C B1 Xxt C
^b = b B C+ B C aXt + B C "t
Bn X A
n C Bn X A
n C Bn X
n C
t=1 @ 2 t=1 @ 2 t=1 @ 2A
xt xt xt
t=1 t=1 t=1
0 1 0 1
X
n

B xt Xt C n B C
B t=1 C X B1 Xxt C
= b + aX B
aX B n C + B C "t
X C Bn X
n C
@ 2 A t=1 @ 2A
xt xt
t=1 t=1

Comme Xt = xt + X, on déduit
0 n 1 0 1
X
B xt xt + X C Xn B C
B t=1 C B1 Xxt C
^b = b + aX aX B C+ B C "t
B Xn C B X
n C
@ A t=1 @ n A
x2t x2t
t=1 t=1
0 1 0 1 0 1
X
n X
n
2
B xt C B xt C n B C
B t=1 C B C X B1 Xxt C
= b + aX aX B
BX
C
C
2B t=1
aX B n C
C + B
B
C "t :
C
@
n
A @ X A t=1 @ n X
n
A
x2t x2t x2t
t=1 t=1 t=1

On obtient alors 0 1

Xn B C
B1 Xxt C
^b = b + B C "t :
Bn X
n C
t=1 @ A
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 19

En passant à l’espérance mathématique, on trouve


0 0 1 1
B n B C C
BX B 1 Xxt C C
E ^b = E (b) + E B
B
B
B
C "t C
@ t=1 @ n X A C
n C
A
x2t
t=1
0 1

Xn B C
B1 Xxt C
= E (b) + B C E ("t )
Bn X
n C | {z }
t=1 @ 2 A =0
xt
t=1

E ^b = E (b) = b:

D’où b est aussi un estimateur sans biais.

3/ La variance de a
^:

Par dé…nition, la variance de (^


a) est donnée par :

V ar (^
a) = E [^
a a)]2 et E (^
E (^ a) = a:

D’un autre coté, on sait que


X
n
x t "t
t=1
a
^ =a+ :
Xn
x2t
t=1

Ce qui implique
X
n
x t "t
t=1
a
^ a= :
Xn
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 20

Alors, on déduit que


0 12
X
n

B x t "t C
B t=1 C
V ar (^
a) = E (^
a a) = E B
2
B X n
C
C
@ A
x2t
t=1
!2
1 X
n
= !2 E x t "t
X
n
t=1
x2t
t=1
1 2 2 2 2 2 2
= !2 E x1 "1 + x2 "2 + :: + xn "n + 2x1 x2 "1 "2 + :: + 2xn 1 xn "n 1 "n :
X
n
x2t
t=1

D’après les hypothèses (1), (2), et (3) du modèle de régression simple, on obtient :

1 2 2 2 2 2 2
V ar (^
a) = !2 " x1 + " x2 + :: + " xn :
X
n
x2t
t=1

D’où
X
n
2
" x2t
t=1
V ar (^
a) = !2
X
n
x2t
t=1
2
"
= :
X
n
x2t
t=1

Finalement
2
"
V ar (^
a) =
X
n
x2t
t=1

3/ La variance mathématique de ^b :
2.3 Les tests d’hypothèses dans une régression linéaire simple 21

On a
0 1

Xn B C
B1 Xxt C
^b = b + B C "t
Bn X
n C
t=1 @ A
x2t
t=1
0 1

Xn B C
B1 Xxt C
) ^b b= B C "t :
Bn X
n C
t=1 @ A
x2t
t=1

Par dé…nition, la variance de ^b est donnée par :


h i2
V ar ^b = E ^b E ^b
2
= E ^b b :

Puisque E ^b = b, on obtient

2
V ar ^b = E ^b b
2 0 1 32
6X B C 7
6 n B1 Xxt C 7
6
= E6 B C "t 7
B X A 7
n C
4 t=1 @ n 5
x2t
t=1
20 1 0 1 32
6B C B C 7
6B 1 Xx1 C B Xxn C 7
= E6B C "1 + ::: + B 1 C "n 7
6B n X C
n Bn X C
n 7
4@ A @ A 5
x2t x2n
t=1 t=1
2 0 12 0 12 3
6 B C B C 7
6 B1 Xx1C 2 B1 Xxn C 2 7
6 Bn X
n C " 1 + ::: + Bn X
n C "n + 7
6 @ A @ A 7
6 2 xt 2 xn 7
6 7
= E6
6 00 1 0 t=1 1 0 t=1 1 0 1 1 7
7
6 7
6 BB C B C B C B C C 7
6 BB 1 Xx1C B1 Xx2C B1 Xxn C B1 Xxn C C 7
6 2 BB n X
n C "1 B n X
n C 2
" + ::: + Bn X
n
1
C "n 1 Bn X
n C "n C 7
4 @@ 2
A @ 2
A @ 2
A @ 2
A A 5
xt xt xt xt
t=1 t=1 t=1 t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 22

D’après les hypothèses (1), (2) et (3) du modèle de régression simple, on obtient
0 12

Xn B C
B1 Xxt C
V ar ^b = 2 B C :
" Bn X
n C
t=1 @ A
x2t
t=1

Il résulte, alors 0 1
B C
Xn B C
B1 2Xxt X 2 x2t C
V ar ^b = 2" B 2 + !2 C
Bn X
n
X
n C
t=1 @ 2 A
n xt x2t
t=1 t=1

X
n
Puisque xt = 0;
t=1 0 1
X
n

B x2t
+ nX 2
C
B t=1 C
V ar ^b = 2 B C
" B X
n C
@ A
n x2t
t=1

et comme Xt = xt + X , donc on déduit que


0 1
X
n

B Xt2 C
B
2 B t=1
C
V ar ^b = "B X
C
n C
@ A
n x2t
t=1
0 1
X
n

B Xt2 C
B
2B
C
= "B X
t=1 C
n C
@ 2A
n Xt X
t=1t

5/ La covariance mathématique ^b; a


^

Par dé…nition, la covariance ente ^b; a


^ se calcule comme suit :
h i
Cov ^b; a
^ = E ^b E ^b (^
a E (^
a))
h i
= E ^b b (^
a a)
2.3 Les tests d’hypothèses dans une régression linéaire simple 23

Comme ^b; a
^ sont sans biais, alors
2 0 1 3
X
n

6 n B C x t "t 7
6X B 1 Xxt C 7
Cov ^b; a
^ = E6
6
B
B
C "t
C
t=1 7
7
4 t=1 @ n X
n
A Xn
5
x2t x2t
t=1 t=1
20 13
X
n X
n X
n X
n
6B "t x t "t X x t "t x t "t C 7
6B C7
6B t=1 t=1 C7
Cov ^b; a
^ = E 6B t=1 t=1
!2 C7
6B X n
X
n C7
4@ n x2t A5
x2t
t=1
2 3 2 t=1 !2 3
X
n X
n Xn

6 "t x t "t 7 6 x t "t 7


6 t=1 t=1 7 6 7
6 t=1 7
Cov ^b; a
^ = E6
6
7
7 XE 6 !2 7
4 X n
5 6 X n 7
n x2t 4 2 5
xt
t=1 t=1

D’après les hypothèses (1), (2) et (3) du modèle de régression simple, il résulte que
2
X
Cov ^b; a
^ = "
X
n
x2t
t=1

Théorème 2.3.1 (Gaus Markov) : Les estimateurs sans biais du modèle de la régression
simple (2.1.1) sont linéaires et de variances minimales.
Xn
Preuve. L’estimateur des MCO s’écrit a ^= pt yt , avec
t=1

(Xt X)
pt =
X
n
(Xt X)2 :
t=1
On considère un autre estimateur linéaire en yt et sans biais, c’est-à-dire
Xn
= t yt
t=1
X
n X
n
et on montre que t = 0 et t xt = 1 et E("t ) = 0: L’égalité
t=1 t=1
X
n X
n X
n
E( ) = b t +a t xt + t E("t )
t=1 t=1 t=1
X
n X
n
= b t +a t xt
t=1 t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 24

est vraie pour tout a. L’estimateur est sans biais donc E( ) = a pour tout a, c’est-à-dire
Xn X
n
que t = 0 et t xt = 1: On montre maintenant que V ar( ) a): On a
V ar(^
t=1 t=1

V ar( ) = V ar( a
^+a
^)

= V ar( a
^) + V ar(^
a) + 2Cov( a
^; a
^):

Or

Cov( a
^; a
^) = Cov( ; a
^) V ar(^
a)
X
n
2
t (Xt X)
2
t=1
= X X
(Xt X)2 (Xt X)2
= 0:
X
n X
n
Cette dernière égalité étant due aux relations t = 0 et t xt = 1: Ainsi,
t=1 t=1

V ar( ) = V ar( a
^) + V ar(^
a):

Comme la variance est toujours positive, alors

V ar( ) V ar(^
a):

De façon similaire, on montre que ^b est linéaire et de variance minimale.

2.3.2 Analyse de la variance

Pour dé…nir l’équation de l’analyse de la variance des paramètres du modèle (2.1.1), on a


besoin des propriétés données dans le lemme suivant :

Lemme 2.3.1 Soit le modèle de régression simple (2.1.1) véri…ant les hypothèses citées ci-
dessus, alors
X
n
1= et = 0 : la somme des résidus est nulle (la droite de régression passe par le point
t=1
moyen, cela est valable uniquement pour les modèles contenant le terme constant).
X
n Xn
2= Yt = Y^t : égalité entre la moyenne de la série à expliquer et la moyenne de la série
t=1 t=1
ajustée.
2.3 Les tests d’hypothèses dans une régression linéaire simple 25

Preuve. Soit le modèle de régression simple :Yt = b + aXt + "t ; sachant que le résidu est :

et = Yt Y^t


Y^t = ^b + a
^Xt :

1/ On sait que

Yt = Y^t + et

= ^b + a
^Xt + et :

Donc
X
n X
n X
n
Yt = n^b + a
^ Xt + et
t=1 t=1 t=1

ce qui imlique
X
n
et = nY n^b a
^nX:
t=1

En remplaçant ^b par sa valeur, on obtient alors


X
n
et = nY n Y a
^X a
^ nX
t=1
= nY nY + a
^ nX a
^nX:

Par conséquent
X
n
et = 0:
t=1

X
n
2/ Puisque et = 0; on déduit alors
t=1

X
n X
n
et = Yt Y^t = 0
t=1 t=1
X
n X
n
=) Yt Y^t = 0
t=1 t=1
X
n X
n
=) Yt = Y^t :
t=1 t=1

D’où Y = Y^ :
2.3 Les tests d’hypothèses dans une régression linéaire simple 26

A partir des deux propriétés du Lemme (2.3.1), on peut déduire la fonction fondamentale
d’analyse de la variance. On a

Yt Y^t = et =) Yt = Y^t + et :

D’où
Yt Y = Y^t + et Y:

Cela implique
2 2
Yt Y = Y^t Y + e2t + 2 Y^t Y et :

Passant aux sommes, on trouve


X
n
2
X
n
2 X
n X
n
Yt Y = Y^t Y + e2t + 2 Y^t Y et :
t=1 t=1 t=1 t=1

Comme
X
n X
n X
n
et = 0 et Yt = Y^t ;
t=1 t=1 t=1

alors
X
n
Yt Y^t = 0:
t=1

On déduit donc
X
n
2
X
n
2 X
n
Yt Y = Y^t Y + e2t :
t=1 t=1 t=1

D’où

SCT = SCE + SCR: (2.3.5)

Dé…nition 2.3.1 L équation (2.3.5) est appelée l’équation de l’analyse de la variance, telle
que
X
n
2
1/ SCT = Yt Y : désigne la variabilité totale.
t=1
Xn
2
2/ SCE = Y^t Y : désigne la variabilité expliquée.
t=1
X
n X
n
2
3/ SCR = e2t = Yt Y^t : désigne la variabilité des résidus.
t=1 t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 27

2.3.3 Coe¢ cient de détermination

De l’équation (2:3:5); on peut déduire le coe¢ cient de détermination

SCT SCE SCR


= +
SCT SCT SCT
ce qui implique
SCE SCR
1= + :
SCT SCT
D’où
SCR SCE
r2 = 1 = :
SCT SCT
Alors
SCE
r2 = :
SCT

Remarque 2.3.1 Le coe¢ cient de détermination permet de déterminer la qualité de l’ajus-


tement linéaire en mesurant la part de la variation total de y expliquée par le modèle de
régression sur x: Sa valeur est comprise entre 0 et 1 (0 r2 1): Plus la valeur de r2 est
proche de 1, plus le modèle est plus signi…catif.

Exemple 2.3.1 On dispose des données qui sont représentés dans le tableau suivant :

Xt (kg) 100 200 300 400 500 600 700


Yt (DA) 40 50 50 70 65 65 80

où Yt : Désigne les quantités consommées (en kg) et Xt : Désigne le prix des quantités
consommées (en DA).
2.3 Les tests d’hypothèses dans une régression linéaire simple 28

1/ On trace un graphique des couples de données liant le prix et les quantités consommées.
On obtient le nuage de points suivant :

Figure 4 : Droite de rgression simple exp


2.2.1

2/ Les estimateurs par la méthodes des moindres carrés de la pente a


^ et de l’ordonnée à
l’origine ^b de la droite de régression estimée d’équation Y^t = ^b + a
^Xt sont :

X
n
Yt Y Xt X
Cov (X; Y ) t=1
a
^= =
V ar (X) X
n
2
Xt X
t=1

et
^b = Y a
^X

On a n = 7, X = 400 kg et Y = 60 DA:

2
V ar (X) = X 2 X
1X 2
7
2
V ar (X) = X X
7 t=1
V ar (X) = 200000 (400)2

V ar (X) = 40000 (kg)2


2.3 Les tests d’hypothèses dans une régression linéaire simple 29

et

Cov (X; Y ) = XY X Y
1X
7
Cov (X; Y ) = Xt Yt X Y
7 t=1
Cov (X; Y ) = 26357; 14286 24000

Cov (X; Y ) = 2357; 142857 kg:DA

On trouve, donc

2357; 142857
a
^ =
40000
= 0; 058928571

et

^b = Y a
^X
^b = 60 (0; 0589 400)
^b = 36; 42857143

Par conséquent, la droite qui ajuste le nuage de point est :

(D) : Y^t = 36; 42 + 0; 058Xt :

2.3.4 Tests des coe¢ cients et les intervalles de con…ance


Estimation de la variance des erreurs

Soit le modèle de régression simple :

Yt = b + aXt + "t

Le résidu est donné par


et = Yt Y^t


2.3 Les tests d’hypothèses dans une régression linéaire simple 30

Y^t = ^b + a
^Xt

et
Y = b + aX + ":

On a
et = b + aXt + "t ^b a
^Xt :

On remplace ^b par sa valeur, on obtient

et = b + aXt Y +a
^X a
^Xt + "t

On remplace aussi Y par sa valeur, on obtient

et = (a a
^) Xt (a a
^ ) X + "t "

= (a a
^) Xt X + ("t ") :

D’où
et = (a a
^) xt + ("t ")

En élevant ce terme au carré et e¤ectuant la somme sur les n observations, on trouve

X
n X
n
e2t = [(a a
^) xt + ("t ") ]2
t=1 t=1
X
n
2 2
X
n X
n
= ("t " ) + (a a
^) x2t + 2 (a a
^) xt ("t ")
t=1 t=1 t=1

Or d’après l’expression (2.3.4), on a


X
n X
n
xt ("t ") = (a a
^) x2t :
t=1 t=1

Cela conduit à
X
n X
n
2 2
X
n
e2t = ("t ") (a a
^) x2t
t=1 t=1 t=1
En passant à l’espérance mathématique, on obtient
! " n #
X n X 2 2
X
n
E e2t = E ("t " ) E (a a
^) x2t
t=1 t=1 t=1

On examine les deux membres de cette équation


2.3 Les tests d’hypothèses dans une régression linéaire simple 31

a/
" # " #
X
n
2
X
n
E ("t ") = E "2t 2""t + "2
t=1
" t=1 #
X n X
n X
n
= E "2t 2" "t + "2
" t=1 t=1 t=1
#
X n
= E "2t 2"n" + n"2
" t=1 #
X n
= E "2t 2n" + n" 2 2

" t=1 #
X n
= E "2t n" 2

" t=1 #
X n X
n
= E "2t " "t
t=1 t=1
2 " #2 3
X
n
6 "t 7
6X n 7
6 t=1 7
= E6 "2t 7
6 n 7
4 t=1 5

2 !2 3
Xn
1 X
n
= 4 E "2t E "t 5
t=1
n t=1

Comme E ("2t ) = 2
" (hypothèse 2)

" #
X
n
1
E ("t " )2 = n 2
" E("21 + "22 + ::: + "2n ):
t=1
n
Or, d’après l’hypothèse 3 d’indépendance des erreurs, les doubles produits sont donc tous
nuls. Par conséquent

" #
X
n
1
E ("t " )2 = n 2
" n 2
" =n 2
"
2
"
t=1
n
2
= " (n 1)

b/
2
X
n
E (a a
^) x2t = 2
":
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 32

En e¤et
2
E (a ^)2 =
a "
:
X
n
x2t
t=1

D’où !
X
n
E e2t = 2
" (n 1) 2
"
t=1
2
= (n 2) ":

Alors
X
n
e2t
t=1
^ 2" =
n 2
^ 2" est un estimateur sans biais de 2
".

Test des coe¢ cients

En considérant le modèle de régression simple

Yt = b + aXt + "t :

On sait que

X
n
e2t
t=1
^ 2" = (2.3.6)
n 2
2 2
et "i suit la loi normale de moyenne nulle et de variance "; N (0; ") :

De (2.3.6) on a

X
n
(n 2) ^ 2" = e2t
t=1
X
n
e2t
(n 2) ^ 2" t=1 2
=) 2
= 2
! n 2
" "

2
où n 2 est la loi de Khi-deux de (n 2) degrés de liberté.
2.3 Les tests d’hypothèses dans une régression linéaire simple 33

D’autre part, on a
0 1 0 0 11
X
n

B C B B Xt2 CC
B 2 C B B CC
B
^ ! N Ba; n
a " C
et b ! N B
^ 2 B t=1 CC
C Bb; " B X CC
@ X 2A
n
@ @ 2 AA
xt n Xt X
t=1 t=1

Par un changement de variables, on obtient les variables centrées réduites Z1 et Z2 suivant


toutes les deux la loi normale centrée réduite N (0; 1)

a
^ a ^b b
Z1 = v 2 ! N (0; 1) et Z2 = v 0 1 ! N (0; 1)
u " u X
n
uX n u
t u B Xt2 C
x2t u B C
u 2 t=1
t=1 u "B X n C
t @ 2A
n (Xt X )
t=1

D’après la dé…nition de la loi de Student T qui est : le rapport d’une loi centrée réduite et la
racine carrée d’une loi de khi-deux divisée par le nombre de ses degrés de liberté. On a

Z1
TC = q p
(n 2) ^ 2" = 2" = n 2
" Z1 " a
^ a
TC = = : s n ! Tn 2 :
^" ^" X
"= x2t
t=1

Finalement,
a
^ a %
TC = ! Tn 2 ; (2.3.7)
^ 2a^ 2
où Tn 2 est la loi de Student de (n 2) degré de liberté et est le taux (seuil) de risque.
Suivant la même procédure pour ^b, on obtient
^b b %
TC = ! Tn 2 ; (2.3.8)
^^2b 2

A partir des résultats (2.3.7) et ( 2.3.8), on peut e¤ectuer les tests d’hypothèses suivants :
8 8
< H0 : b = 0 < H0 : a = 0
contre et contre
: :
H1 : b 6= 0 H1 : a 6= 0
2.3 Les tests d’hypothèses dans une régression linéaire simple 34

Règle de décision et la construction du test des paramètres

On considère un test bilatéral et on commence par le paramètre a:Tester a consiste à tester


l’hypothèse suivante : 8
< H0 : a = 0
contre
:
H1 : a 6= 0
Sous l’hypothèse H0 : a = 0 , on obtient la valeur critique (TC ) calculée à partir de l’expression

a
^ a %
TC = ! Tt n 2;
^ a^ 2

* TC : Déigne la valeur critique de la statistique T (dite calculée).

^ : Désigne la valeur estimée du paramètre a:


* a

* ^ a^ : Désigne la valeur de l’écart-type du paramètre a:

* : Le seuil donné.(En général, on prend = 5%):

* n 2 : Degré de liberté.

* Tt : Désigne la valeur de la statistique Student T lue à partir de la table statistique.

Règle de décision

=0:05
– Si jTC j < Tt on accepte l’hypothèse H0 : la variable xi n’est pas contributive à l’ex-
plication de Y .
=0:05
– Si jTC j > Tt on accepte l’hypothèse H1 : la variable xi est contributive à l’explication
de Y .
De même, le test du paramètre b consiste à tester l’hypothèse suivante :
8
< H0 : b = 0
contre
:
H1 : b 6= 0

Sous l’hypothèse H0 : b = 0 , on obtient la valeur critique TC tel que

^b b %
TC = ! Tt n 2;
^^b 2

avec
2.3 Les tests d’hypothèses dans une régression linéaire simple 35

* TC : Désigne la valeur critique de la statistique T (dite calculée).

* ^b : Désigne la valeur estimée du paramètre b:

* ^^b : Désigne la valeur de l’écart-type du paramètre b:

* : Le seuil donné.(Engénéral = 5%):

* n 2 : Degré de liberté.

* Tt : Désigne la valeur de la statistique Student T lue à partir de la table statistique.

Règle de décision

=0:05
– Si jTC j < Tt on accepte l’hypothèse H0 : le modèle ne contient pas de constante.
=0:05
– Si jTC j > Tt on accepte l’hypothèse H1 : le modèle contient la constante.

2.3.5 Estmation des paramètres par des intervalles de con…ance

Dé…nition 2.3.2 L’estimation par intervalle d’un paramètre inconnu consiste à calculer
à partir d’un estimateur choisi ^, un intervalle Ic = [LI; LS] dans lequel il est vraisemblable
que la valeur correspondante du paramètre s’y trouve. La probabilité liée à cet intervalle de
con…ance est exprimée en pourcentage noté 1 où est le taux de risque. La probabilité
1 est appelée le niveau de con…ance ou le seuil de con…ance

Pr (LI LS) = 1

où 1 est la probabilité associée à l’intervalle d’encadrer la vraie valeur du paramètre et


LI (resp: LS) est la borne inférieure (resp. supérieure) de l’intervalle de con…ance.

Remarque 2.3.2 Le niveau de con…ance est toujours associé à l’intervalle et non au para-
mètre inconnu :

Intervalles de con…ances des paramètres a et b

Les intervalles de con…ances des paramètres a et b au seuil donné (au niveau de con…ance (1 ))
sont donnés par :
p
Intervalle de con…ance du paramètre a :
2.3 Les tests d’hypothèses dans une régression linéaire simple 36

Pr a
^ T 2 ^ a^ < a < a
^ + T 2 ^ a^ = 1
p
Intervalle de con…ance du paramètre b :
h i
Pr ^b T 2 ^^b < b < ^b + T 2 ^^b = 1

p 2
Intervalle de con…ance de : On a

X
n
e2t
t=1
^2 = = S2
n 2
(n 2) S 2 2
=) 2
! n 2

D’où
2 (n 2) S 2 2
Pr 1 < 2
< 2 =1

2
1 (n 2) S 2 2
2
Pr < < =1 :
(n 2) S 2 2 (n 2) S 2
Finalement
(n 2) S 2 2 (n 2) S 2
Pr 2
< < 2
=1
2 1

2.3.6 Analyse de la variance et test de Fisher

On a déjà dé…ni SCT , SCR et SCE; ces sommes peuvent être utilisées pour tester l’hypo-
thèse suivante : 8
< H0 : b = 0
contre
:
H1 : b 6= 0
Sous l’hypothèse H0 : b = 0, On a

E (SCT ) = (n 1) 2 ; E (SCE) = (1) 2


et E(SCR) = (n 2) 2

avec (n 1); (1) et (n 2) sont des degrés de libertés de SCT; SCE; et SCR respectivement.
D’autre part, lorsque H0 est véri…ée on a

SCT 2 SCE 2 SCR 2


! n 1; ! 1 et ! n 2
n 1 1 n 2
2.3 Les tests d’hypothèses dans une régression linéaire simple 37

Du moment que SCE


2 et SCR
2 sont indépendants, on peut déduire donc la valeur critique de
Fisher F qui se dé…nit comme suit : le rapport entre deux Chi-deux ( ) indépendants et leurs
degrés de libertés.
Alors, on obtient :
SCE
2 SCE
1 1
FC = SCR = SCR
2
n 2
n 2
SCE (n 2)
= ! FT (1; n 2; %)
SCR 1

avec

*/ FC : désigne la valeur critique de Fisher calculée.

*/ (1; n 2; %) : se sont des degrés de libertés.

*/ FT : désigne la valeur de Fisher lue à partir de la table statistique de Fisher aux degrés
de liberté 1; n 2.

*/ % : Le seuil donné.

Règle de décision

1. Si jFC j > FT (1; n 2; %) on rejette l’hypothèse H0 ; cela signi…e que, H1 est acceptée :
c’est-à-dire le modèle est globalement signi…catif.

2. Si jFC j < FT (1; n 2; %) on rejette l’hypothèse H1 ; cela signi…e que, H0 est acceptée :
c’est-à-dire le modèle n’est pas globalement signi…catif.

Tableau d’analyse de la variance

Source Degré Somme Moyenne


F calculé
de la variance de liberté des carrés des carrés
Xn
2
M Creg
Régression n=1 SCE = Y^t Y M Creg = SCE
1
FC = M Cres
t=1
X
n
2
Résiduelle n 2 SCR = Yt Y^t M Cres = SCR
n 2
t=1
Xn
2
Total n 1 SCT = Yt Y
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 38

Exemple 2.3.2 On veut expliquer le rendement de mais Y (en quintal) à partir de la quantité
d’angrais utilisé (en kg) sur des parcelles de terrain similaires.

i Y X
1 16 20
2 18 24
3 23 28
4 24 22
5 28 32
6 29 28
7 26 32
8 31 36
9 32 41
10 34 41
Moyenne 26.1 30.4
Le tableau ci-dessous représente les données "Rendements Agricoles"

2
i Y X Yt Y Xt X Yt Y Xt X Xt X
1 16 20 -10,1 -10,4 105,4 108,160
2 18 24 -8,1 -6,4 51,4 40,960
3 23 28 -3,1 -2,4 7,44 5,765
4 24 22 -2,1 -8,4 17,64 70,560
5 28 32 1,9 1,6 3,04 2,560
6 29 28 2,9 -2,4 -6,96 5,760
7 26 32 -0,1 1,6 -0,6 2,560
8 31 36 4,9 5,6 27,44 31.360
9 32 41 5,9 10.6 62.54 112.360
10 34 41 7,9 10.6 38.74 112.360
Moyenne 26,1 30,4 Somme 351,6 492,4
Estimation des coe¢ cients "Rendements agricoles " voici les prancipales étapes :

1/ On calcule les moyennes des variables : Y = 26; 1 Q et X = 30; 4 kg:


2
2/ On forme les valeurs de Yt Y ; Xt X ; Yt Y Xt X ; Xt X :
X
n X
n
2
3/ On réalise les sommes Yt Y Xt X = 351; 6 Q Kg et Xt X = 492; 4 kg 2 :
i=1 i=1
4/ On déduit en…n les estimations des parmètres du modèle de la régression simple Y en x
X
n
Yt Y Xt X
i=1 351; 6 Q
a
^= = = 0; 7141 Q=kg
X
n
2 492; 4 kg
Xt X
i=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 39

et

^b = Y a
^X = 26; 1 0; 7141 30; 4 = 4; 3928 Q

La droite de régression peut être représentée dans le ghraphique nuage de points.

Figure 5 : Rendement agricole

Calculer la colonne des valeurs prédites Y^ ;en déduire le résidu ^" et …nalement obtenir les
sommes des carrés .

2
i Y X Yt Y Xt X Yt Y Y^ ^" ^"2
1 16 20 -10,1 -10,4 102,010 18,674 -2,674 7,149
2 18 24 -8,1 -6,4 65,610 21,530 -3,530 12,461
3 23 28 -3,1 -2,4 9,610 24,386 -1,386 1,922
4 24 22 -2,1 -8,4 4,410 20,102 3,898 15,195
5 28 32 1,9 1,6 3,610 27,242 0,758 0,574
6 29 28 2,9 -2,4 8,410 24,386 4,614 21,286
7 26 32 -0,1 1,6 0,010 27,242 -1,242 1,544
8 31 36 4,9 5,6 24,010 30,099 0,901 0,812
9 32 41 5,9 10,6 34,810 33,669 -1,669 2,785
10 34 41 7,9 10,6 62,410 33,669 0,331 0,110
26; 1 30; 4 314; 9 63; 838749
Moyenne |{z} |{z} Somme | {z } Somme | {z }
Y X SCT SCR

On a
SCE = SCT SCR = 251; 061251;

le coe¢ cient de détermination R2 = 0:79727295 et le coé¢ cient de corrélation R = 0:89290142:


2.3 Les tests d’hypothèses dans une régression linéaire simple 40

On calcule Y^i . pour (i = 1) : Y^1 = a


^ X1 + ^b = 0; 17405 20 + 4; 39277 = 18; 674: On en
déduit le résidu ^" : ^"1 = Y1 Y^1 = 16 18; 674 = 2; 674: Le coe¢ cient de détermination
est obtenu avec sa forme usuelle

SCE 251; 061


R2 = = = 0; 797273:
SCT 314; 900
Puis, le coe¢ cient de corrélation linéaire simple
p
R= 0; 797273 = 0; 892901:

Le tableau d’analyse de variance complet et le test F de signi…cativité globale

Source Degré Somme Moyenne


F calculé
de la variance de liberté des carrés des carrés
Xn
2
SCE = Y^t Y M Creg = SCE
1 FC = M Creg
M Cres
Régression n=1 t=1 = 251; 061251 = 31; 46192618
= 251; 061251
Xn
2
n 2 = 10 2 SCR = Yt Y^t M Cres = SCR
n 2
Résiduelle
=8 t=1 = 7; 979843623
= 63; 83874898
X n
2
n 1 = 10 1 SCT = Yt Y
Total
=9 t=1
= 314; 9

A ce stade , nous obtenons l’estimation de la variance de l’erreur, soit

SCR 63; 839


^ 2" = = = 7; 980:
n 2 8
L’écart -type estimé de l’erreur correspond à la racine carrée

p
^" = 7; 980 = 2; 825:

Pour obtenir l’estimation de l’écart -type de la pente , nous avons besoin de la somme des
écarts à la moyenne au carré des x
2.3 Les tests d’hypothèses dans une régression linéaire simple 41

v
u
u ^ 2"
^ a^ = u n
uX
t Xt X
2

t=1
r
7; 980
=
492; 4
p
= 0; 01621

= 0; 12730:

On forme la statistique de test

a
^ 0; 71405
Ta^ = = = 5; 60909:
^ a^ 0; 12730
Au risque = 5%; le seuil critique pour la loi de Student à (n 2) degrés de liberté pour un
test bilatéral est T1 2
= 2; 30600: Puisque j5; 60909j > 2; 30600; on calcule que la pente est
signi…cativement nou nulle au risque 5%: On souhaite mettre en oeuvre le test d’hypothéses
suivant pour les "Rendements agricoles "

H0 : a = 0:5
H1 : a > 0:5
Il s’agait d’un test de conformité à un standard unilatéral. La région critique au risque du
test s’écrit

a
^ 0; 5
R:C : > T1
^ a^
Voyons ce qu’il en sur nos données

a
^ 0; 5 0; 71405 0; 5
= = 1; 68145
^ a^ 0; 12730
A comparer avec T0;95 (8) = 1; 85955 pour un test à 5% .Nous sommes dans la région d’ac-
ceptation c-à-d .nous ne pouvons pas rejeter l’hypothèse nulle .
La valeur du paramétre a n’est pas signi…cativement supérieur à la référence 0; 5 au risque
5%:
2.3 Les tests d’hypothèses dans une régression linéaire simple 42

Intevalle de con…ance au niveau 95% :

a
^ T2 ^ a^ ; a
^ + T2 ^ a^

[0; 71405 2; 30600 0; 12730 ; 0; 71405 + 2; 30600 0; 12730]

[0; 42046 ; 1; 00761]

Le résultat est cohérent avec le teste de signi…cativité de la pente , l’intervalle de con…ance


ne contient pas la valeur 0:
Chapitre 3

Régression linéaire multiple

En pratique la variable expliquée ne dépend pas que d’une variable explicative. On introduit
dans ce chapitre des modèles de régression linéaire avec plusieurs variables explicatives. On
parle alors de la régression linéaire multiple.
La droite de régression que l’on avait en régression simple est ici remplacée par un hyperplan
des régressions. A…n d’estimer les paramètres de cet hyperplan, on peut comme en régression
simple, utiliser la méthode des moindres carrés.

3.1 Modèle de la régression multiple


Le modèle général de la régrssion multiple est une généralisation du modèle simple dans
lequel …gurent plusieurs variables explicatives

Yt = b0 + b1 x1t + b2 x2t + ::: + bk xkt + "t ; pour t = 1; :::::; n (3.1.1)

avec

1. Yt = variable à expliquer a la date t:

2. x1t = variable explicative 1 à la date t:

3. xkt = variable explicative k à la date t:

4. b0 ; b1 ; b2 ; :::; bk : les paramètres du modèle.

5. "t = erreur de spéci…cation, elle est inconnue.

6. n = nombre d’observations.
3.1 Modèle de la régression multiple 44

3.1.1 La forme matricielle du modèle de la régression multiple

L’écriture du modèle (3.1.1) est n’est pas très pratique. A…n de faciliter l’expression de
certains résultats, on a habituellement recours aux notations matricielles. En écrivant le
modèle (3.1.1), observation par observation, on obtient
8
>
> Y1 = b0 + b1 x11 + b2 x21 + ::: + bk xk1 + "1
>
>
< Y2 = b0 + b1 x12 + b2 x22 + ::: + bk xk2 + "2
:::
>
>
>
> Yt = b0 + b1 x1t + b2 x2t + ::: + bk xkt + "t
:
Yn = b0 + b1 x1n + b2 x2n + ::: + bk xkn + "n
On peut réécrire le modèle (3.1.1) sous la forme matricielle suivante :

Y(n;1) = X(n;k+1) B(k+1;1) +"(n;1) (3.1.2)

telle que

0 1 0 1
Y1 b0 0 1 0 1
B C B C 1 x11 x21 : : xk1 "1
B Y2 C B b1 C B C B C
B C B C B 1 x12 x22 : : xk2 C B "2 C
B : C B : C B C B C
: : : : : x :
Y(n;1) =B
B : C; B =B
C B : C; X =B
C B
C et " = B
C B
C
C
B C B C B : : : : : : C B : C
B Yt C B bt C @ A @ A
@ A @ A 1 x1t x2t : : xkt "t
: :
1 x1n x2n : : xkn "n
Yn bk

On remarque que la première colonne de la matrice X, est le vecteur 1n (tous les termes sont
1), qui correspond au coe¢ cient b0 (coe¢ cient du terme constant).
La matrice X est de n lignes et k + 1 colonnes (k est le nombre de variables explicatives
réelles, c’est-à-dire constante exclue) et n est le nombre d’observations.
Les hypothèses du modèle le modèle (3.1.1) repose sur les hypothèses suivantes :

1/ H0 : Les valeurs xit sont observées sans erreurs.

2/ H1 : E("t ) = 0 espérance des erreurs est nulle.

3/ H2 : E("2t ) = 2
" la variance de l’erreur est constante 8(t):

4/ H3 : E("t "0t ) = 0 si t 6= t; (indépendance des erreurs ).

5/ H4 : Cov (xij ; "i ) = 0; l’erreur est indépendante de xij :


3.2 Estimation des coe¢ cients de régression 45

6/ H5 : Absence de colinéarité entre les variables explicatives =) (X X) régulière et (X


1
X) existe.
0
X X
7/ H6 : n
: Tend vers une matrice …nie non singulière.

8/ H7 : n > k + 1 : nombre d’observations est supérieur aux nombre des explicatives.

3.2 Estimation des coe¢ cients de régression


Soit le modèle sous forme matricielle à k variables explicatives et n observations

Yt = Xt B + "t (3.2.1)

A…n d’estimer le vecteur (B) composé des coe¢ cients b0 ; b1 ; b2 ; :::; bk , on applique la méthode
des moindres carrées ordinaire (MCO) qui consiste à minimiser la somme des carrées des
erreurs. L’expression à minimiser sur B s’écrit
X
n X
n
"2i = [yi b0 b1 xt1 ::: bk xtk ]2
i=1 i=1

= kY XBk2

= (Y XB)0 (Y XB)

où (Y XB)0 est la matrice transposée de (Y XB) : On pose

S = (Y XB)0 (Y XB)

= Y 0Y 2B 0 X 0 Y + B 0 X 0 XB

Par dérivation matricielle de S

@S
= 2X 0 Y + 2X 0 XB:
@B
X
n
@S
Comme min "2i est la valeur qui annule @B
; alors
i=1

@S
=0) 2X 0 Y + 2X 0 XB = 0
@B

d’où
1
B = (X 0 X) X 0Y
3.2 Estimation des coe¢ cients de régression 46

car de l’hypothèse H6 , (X 0 X) est inversible.


Le modéle estimé s’écrit :

Y^t = ^b0 + ^b1 x1t + ^b2 x2t + ::: + ^bk xkt + et

avec
et = Yt Y^t ,

où et : est le résidu, c’est-à-dire l’écart entre la valeur observée de la variable à expliquer et


sa valeur estimée (ajustée).

3.2.1 Propriétés des estimateurs du modèle de la régression mul-


tiple
^ est un estimateur sans biais
1/ B
Soit le modèle
Y = X B + ":

On a

Y =X B ^ +"
=) e = Y Y^ .
Y^ = X B^
Alors

^ = (X X) 1 X 0 Y = (X X) 1 X 0 (X B + ")
B
^ = (X X) 1 X 0 (X B) + (X X) 1 X 0 "
B
^ = B + (X X) 1 X 0 "
B

^
B B = (X X) 1 X 0 " (3.2.2)

D’où

^ = B + (X X) 1 X 0 E(") = B
E(B)
3.2 Estimation des coe¢ cients de régression 47

^ est donc sans biais.


car E(") = 0 (hypothèse H2 ). L’estimateur B
2/ Estimateur de la variance de l’erreur
On a

h i
^ =E (B
V ar( B) ^ ^
B)( B B) (3.2.3)

Or d’après (3.2.2)
0
^
B B = (X X) 1 X 0 " et ^
B B = "0 X(X 0 X) 1 :

ce qui conduit à
0
^
B B ^
B B = (X X) 1 X 0 ""0 X(X 0 X) 1 :

D’où
^ = (X X) 1 X 0 E (""0 ) X(X 0 X)
V ar( B) 1

car E (""0 ) = 2
"I : matrice des variances de l’erreur ": En e¤et, d’après les hypothèses H3 et
H4 ; on a
0 1
[E ("1 "1 )] E ("1 "2 ) ::: E ("1 "n )
B E ("2 "1 ) E ("2 "2 ) ::: E ("2 "n ) C
E (""0 ) = B
@
C
A
::: :::
E ("n "1 ) E ("n "2 ) ::: E ("n "n )
0 2 1
" 0 ::: 0
B 0 2
" ::: 0 C
B
= @ C
::: ::: A
2
0 0 0 "

^ devient
Alors, V ar( B)

^ =
V ar( B) 2 1 1
" (X X) (X X)(X X)

En…n,
^ =
V ar( B) 2 1
(3.2.4)
" (X X) :

2
Puisque " est inconnu, on l’estime . Soit le modèle

Yt = X B + " t

On a
e=Y Y^
3.2 Estimation des coe¢ cients de régression 48

et

Y^ = X B:
^

D’où
et = Y ^
XB (3.2.5)

^ = (X X) 1 X 0 Y dans l’équation (3.2.5), on aura


En remplaçant B

et = Y X(X X) 1 X 0 Y = I X(X X) 1 X 0 Y:

On pose
M =I X(X X) 1 X 0 :

Alors

X
n
e2t = e0 e = "0 M 0 M " = "M "
t=1
et

E(e0 e) = 2
" In T r I X(X X) 1 X 0 = 2
" In (n k 1) :

On obtient alors
e0 e
^ 2" = ; n > k + 1 (hypothsèse H8 ) :
n k 1
L’estimateur sans biais de la variance ^ 2" est donné par
X
n
2
Y^t Y
t=1
s2 =
n k 1
SCE
=
n k 1
où SCE est la somme des carrés des résidus
2
SCE = Y^t Y In

On dé…nit également la somme totale des carrés

2 2
SCT = Yt Y In = Y 0Y n Y ;
3.2 Estimation des coe¢ cients de régression 49

et la somme des carrés de la régression

SCR = k^"k2 :

On peut aisément véri…er que


SCT = SCR + SCE:

3.2.2 Coe¢ cient de détermination

Dé…nition 3.2.1 On appelle coe¢ cient de détermination la quantité

SCR
R2 = 1
SCT
X n
^"2
t=1
= 1
X
n
2
Yt Y
t=1
X
n
2
Y^t Y
t=1
= 1
X
n
2
Yt Y
t=1

Qui est donc la part de variation de Y expliquée par le modèle de régression.

Dé…nition 3.2.2 Le coe¢ cient de détermination corrigé R2 est dé…ni par :


SCR
(n k 1)
R2 = 1 SCT
n 1
n k 1
R2 = 1 1 R2
n 1

où n est le nombre d’observations et (k + 1) est nombre de séries explicatives.

Remarque 3.2.1 Le coe¢ cient de détermination corrigé R2 véri…e les propriétés suivantes

1/ R2 < R2 si k > 1:

2/ R2 = R2 si k = 1:

3/ R2 peut prendre des valeurs négatives.


3.3 Les tests statistiques 50

3.3 Les tests statistiques


3.3.1 Le test de student

Tester l’in‡uence directe de la variable explicative sur la variable endogène, revient à tester
son coe¢ cient de régression s’il est égale ou di¤érent de 0, pour un seuil choisi, en général on
prend = 0; 05: Le test bilatéral d’hypothèse est le suivant :
8
< H0 : bt = 0;
contre
:
H1 : bt 6= 0:

La statistique de student est la suivante :

^bt bt %
TC = ! St n k 1; (3.3.1)
^^bt 2

avec

*/ T c : la valeur calculée,

*/ T : la valeur de la table de Student lue à partir de la table statistique,

*/ n k 1 : degrés de liberté,
%
*/ 2
: seuil de risque.

Règle de décision

=0;05
Si jTC j < T on accepte l’hypothèse H0 : la variable xt n’est pas contributive à l’expli-
cation de Y . Dans le cas contraire, on rejette H0 et on accepte H1 :

3.3.2 Test de Fisher

Le test de Fisher est test de signi…cation globale du modèle de regression. Pour tester si
l’ensemble des variables explicatives ont une infuence sur la variable à expliquer, on fait le
test d’hypothèse suivant :

L’hypothèse nulle H0 : b1 ; b2 ; :::; bk = 0; pour un seuil %

Contre
L’hypothèse alternative H1 : il existe au moins bi 6= 0
3.3 Les tests statistiques 51

Sous H0 , on a
X
n
2
(Y^t Y)
t=1
k
FC = X
n

"2
^
t=1
(n k 1)
X
n

y^t2
t=1
k
= X
n

"2
^
t=1
(n k 1)

R2
k
FC = (1 R2 )
! F (k; n k 1; %) (3.3.2)
(n k 1)
avec

*/ FC : la valeur calculeé,

*/ F : la valeur lue de la table de Fisher,

*/ (k; n k 1) : degrés de liberté .

*/ % : seuil de risque .

Régle de décision

Si jFC j > Ft on rejette l’hypothèse H0 et on accepte H1 ! le modèle est globalement signi-


…catif. Dans le cas contraire, on accepte l’hypothèse H0 ! le modèle n’est plus signi…catif.

Tableau d’analyse de la variance

Source Degré Somme Moyenne


F calculé
de la variance de liberté des carrés des carrés
Xn
2
M Creg
Régression k SCE = Y^t Y M Creg = SCE
k
FC = M Cres
t=1
X
n
2
Résiduelle n k 1 SCR = Yt Y^t M Cres = SCR
n k 1
t=1
Xn
2
Total n 1 SCT = Yt Y
t=1
3.4 Application 52

3.4 Application
Soit le modéle à trois variables explicatives x1 ; x2 et x3

Yt = b0 + b1 x1t + b2 x2t + b3 x3t + "t :

On dispose des données du tableau

1/
t Y x1 x2 x3
1 12 2 45 121
2 14 1 43 132
3 10 3 43 154
4 16 6 47 145
5 14 7 42 129
6 19 8 41 156
7 21 8 32 132
8 19 5 33 147
9 21 5 41 128
10 16 8 38 163
11 19 4 32 161
12 21 9 31 172
13 25 12 35 174
14 21 7 29 180
1/ Forme matricielle du modèle : on dispose de 14 observations (n = 14) et trois va-
riables explicatives, le modèle peut donc s’écrire : Y = XB + "; avec

0 1 0 1 0 1
12 1 2 45 121 0 1 "1
B C B C b0 B C
B 14 C B 1 1 43 132 C B b1 C B "2 C
Y =B
B 10 C ; X=B
C B 1 3 43 145 C ; B=B
C
C et " = B
@ b2 A B "3 C:
C
@ ::: A @ ::: ::: ::: ::: A @ ::: A
b3
21 1 7 29 180 "14
^ = (X 0 X) 1 X 0 Y , on calcule X 0 X et (X 0 X)
2/ Estimation des paramètre du modèle : B 1
3.4 Application 53

0 1
0 1 1 2 45 121
1 1 1 ::: 1 B C
B 1 1 43 132
2 1 3 ::: 7 C B C
X 0X = B CB 1 3 43 145 C
@ 45 43 43 ::: 29 A B
@
C
A
::: ::: ::: :::
121 132 154 ::: 180
1 7 29 180
0 1
14 85 532 2094
B 85 631 3126 13132 C
= B
@ 532
C
3126 20666 78683 A
2094 13132 78683 317950
et
0 1
20; 1864 0; 015065 0; 23145 0; 07617
B 0; 015065 0; 013204 0; 001194 0; 00094 C
(X 0 X) 1
=B
@ 0; 23145 0; 001194 0; 003635 0; 000575 A .
C

0; 07617 0; 00094 0; 000575 0; 000401


On a aussi 0 1
0 1 12 10
1 1 1 ::: 1 B C 248
B 14
2 1 3 ::: 7 C B C B 1622 C
X 0Y = B CB 10 C=B C
C @ 9202 A :
@ 45 43 43 ::: 29 A B
@ A
:::
121 132 154 ::: 180 37592
21
Donc
0 10 1
20; 1864 0; 015065 0; 23145 0; 07617 248
B 0; 015065 0; 013204 0; 001194 C B
0; 00094 C B 1622 C
^ = B
B C
@ 0; 23145 0; 001194 0; 003635 0; 000575 A @ 9202 A
0; 07617 0; 00094 0; 000575 0; 000401 37592
0 1
32; 89132
B 0; 801900 C
= B C
@ 0; 38136 A :
0; 03713

On prend ^b0 = 32; 89, ^b1 = 0; 80; ^b2 = 0; 38; et ^b3 = 0; 03:

3/ Calcul de ^ 2" et de ^ 2B^ : On commence tout d’abord par calculer le résidu e

e = Y Y^ = Y ^
X B

= Yt ^b0 + ^b1 x1t + ^b2 x2t + ^b3 x3t :

En remplçant les paramètres ^bt par leurs valeurs trouvées ci-dessus, on trouve
3.4 Application 54

et = Yt 32; 89 0; 80x1t + 0; 38x2t + 0; 03x3t ):

Les résultats numériques sont consignés dans le tableau ci-dessous

t Y Y^t et e2t
1 12 12,84 -0,80 0,70
2 14 12,39 1,61 2,58
3 10 13,18 -3,18 10,11
4 16 13,39 1,61 2,58
5 14 17,70 -3,70 13,67
6 19 17,88 1,12 1,26
7 21 22,20 -1,20 1,44
8 19 18,86 0,14 0,02
9 21 16,51 4,49 20,14
10 16 18,76 -2,70 7,63
11 19 17,92 1,08 1,17
12 21 21,90 -0,90 0,81
13 25 22,71 2,90 5,27
14 21 20,76 0,24 0,06
P
14 P
14
/ / / et = 0 e2t = 67; 45
t=1 t=1

Il est clair que la somme des résidus est bien nulle et

X
14
e2t
0
ee 67; 45
^ 2" = = t=1 = = 6; 745:
n k 1 14 3 1 10

La matrice des variances donnée par (3.2.4) est :

^ = ^ 2 (X X) 1
V ar( B) "
0 1
20; 1864 0; 015065 0; 23145 0; 07617
B 0; 015065 0; 013204 0; 001194 0; 00094 C
= 6; 745 B C
@ 0; 23145 0; 001194 0; 003635 0; 000575 A :
0; 07617 0; 00094 0; 000575 0; 000401

Les variances des coe¢ cient de régression se trouvent sur la diagonale


3.4 Application 55

^^2b0 = 6; 745 20; 17 = 136; 04 ) ^^b0 = 11; 66

^^2b1 = 6; 745 0; 013 = 0; 087 ) ^^b1 = 0; 29

^^2b2 = 6; 745 0; 0036 = 0; 024 ) ^^b2 = 0; 15

^^2b3 = 6; 745 0; 0004 = 0; 0026 ) ^^b3 = 0; 05

X
14
4/ Le coe¢ cient de détermination R2 : d’après ce qui précède, on a e2t = 67; 45,
t=1
X
14
2
et Yt Y = 226; 86: Alors
t=1

X
14
e2t
t=1 67; 45
R2 = 1 =1 = 0; 702
X
14
2
226; 86
Yt Y
t=1
2
Le R corrigé est donné par :

n k 1
R2 = 1 1 R2
n 1
14 1
= 1 (1 0; 702) = 0; 613
14 4

On remarque la baisse du coe¢ cient de détermination lorsque on le corrige par le degré de


liberté.

5/ Test Student au seuil de 5% (pour la valeur = 5% ) , soit :

^b1 0; 80
T^b1 = = = 2; 75
^^b1 0; 29
0;05 0;05
et la valeur lue de la table de Student est T10 = 2; 228: Comme T^b1 > T10 ; alors l’hypothèse
Ho est rejetée. Par conséquent H1 est acceptée b1 6= 0: On déduit donc que la variable
explicative x1 est contributive à l’explication de Y; de même pour les autres paramètres du
modèle
^b2 0;38 0;05
*/ ^ ^b
= 0;15
= T^b2 = 2; 53 > T10 = 2; 228 ! b2 6= 0 est l’hypothèse acceptée.
2
3.4 Application 56

^b3 0;03 0;05


*/ ^ ^b
= 0;05
= T^b3 = 0; 60 < T10 = 2; 228 ! b3 6= 0 est l’hypothèse rejetée ) b3 = 0 est
3

l’hypothèse acceptée.

Remarque 3.4.1 La variable x2 est explicative de Y alors que la variable x3 n’est pas contri-
butive à l’explication de Y , il convient donc de la retirer de ce modèle et de procéder à une
nouvelle estimation .

6/ Les intervalles de con…ance de chacun des coe¢ cients :


h i
ICb1 = ^b1 ^^b1 Tn0:05k 1 ; ^b1 + ^^ T 0:05
b1 n k 1 = [0; 14; 1:45] :
h i
ICb2 = ^b2 ^^b2 Tn0:05k 1 ; ^b2 + ^^b2 Tn0:05k 1 = [ 0; 17; 0; 04] :
h i
ICb3 = ^b3 ^^b3 Tn0:05k 1 ; ^b3 + ^^b3 Tn0:05k 1 = [ 0; 14; 0; 08] :

La valeur 0 n’appartient pas à l’intervalle de con…ance à 95% de b1 et b2 , donc ces deux


coe¢ cients sont signi…cativement di¤érents de 0, en revanche, 0 appartient à l’intervalle de
con…ance de b3 , ce coe¢ cient n’est pas signi…cativement di¤érent de 0.

7/ Le test de Fisher de la signi…cation globale de la régression

R2 0;702
k 3 0:05
FC = (1 R2 )
= (1 0;702)
= 7; 878 > F(3;10) = 3; 71
(n k 1) 10
0:05
F(3;10) est la valeur lue de la table de Fisher à (3; 10) degrés de liberté et au seuil = 5%: On
rejette l’hypothèse H0 de nullité de tous les coe¢ cients. Alors, la régression est globalement
signi…cative.
Conclusion

Ce mémoire est une courte exposition de l’un des outils statistiques qui construisent un
modèle statistique, en comparant la relation entre une variable dépendante et une autre
variable indépendante, a…n de produire une équation statistique qui peut clari…er la relation
entre ces variables. Cette relation est dite la régression linéaire.
La régression linéaire peut être simple, lorsqu’il y a une variable dépendante et une autre
indépendante, ou multiple, lorsqu’il y a un nombre k 2 de variables exlicatives d’une
variable à expliquer.
Annexe 1 : Table de Student

Table de Student
Annexe 2 : Table de Fisher

Table de Fisher
Annexe 3 : Table de Fisher "suite"

Table de Fisher
Bibliographie

[1] Dj. Bensikaddour, Cours de Statistique II, Master 1 Analyse fondamentale, Univ-
Mostaganem, (2020).

[2] Dj. Bensikaddour, Cours de Statistique descriptive et probabilités, Univ-Mostaganem,


(2016/2017).

[3] N. Boukrif, Cours Régression linéaire simple et multiple, Université Abderrahmane


MIRA-Bejaia, (2016).

[4] Ar. Guyader, Régression linéaire, Université Rennes 2, Année (2012/2013).

[5] C. Labrousse, Introduction à l’économétrie, Maîtrise d’économétrie, Dunod, (1983).

[6] E. Lebarbier, S. Robin, Exemples d’application du modèle linéaire.

[7] A. Liorzou, Initiation pratique à la statistique, Berger-Levrault, Nancy-778722, (1979).

[8] De. Philippe, Cours D’économétrie, Université De Friboug, (2006-2007).

[9] Ve. Renée, Statistique et probabilités pour l’ingénieur, Dunod, (2014).

[10] Bo. Régis, Économétrie, Cours et exercices corrigés, Dunod, (2015).

[11] Ra. Ricco, Econométrie, La régression linéaire simple et multiple, Université Lumière
Lyon 2, (2018).

Vous aimerez peut-être aussi