Mémoire Régression Simple Et Multiple
Mémoire Régression Simple Et Multiple
Mémoire Régression Simple Et Multiple
Présenté par :
BERRADIA Hayet
THÈME :
La régression linéaire simple et multiple
Remerciements i
Résumé ii
Introduction 1
Conclusion 57
Bibliographie 61
Remerciements
Tout d’abord, ce travail ne serait pas aussi riche et n’aurait pas pu avoir le jour sans l’aide et
l’encadrement de Dr Dj. BENSIKADDOUR, je la remercie pour la qualité de son encadrement
exceptionnel, pour sa patience, sa rigueur et sa disponibilité durant la préparation de ce
mémoire.
Mes remerciements s’adressent aussi à tous mes professeurs pour leurs générosités et la grande
patience dont ils ont su faire preuve malgré leur charges académiques et professionnelles.
Résumé
L’analyse de régression peut être dé…nie comme la recherche de la relation stochastique qui
lie deux ou plusieurs variables. Son champ d’application recouvre de multiples domaines,
parmi lesquels on peut citer la physique, l’astronomie, la biologie, la chimie, la médecine, la
géographie, la sociologie, l’histoire, l’´économie, la linguistique et le droit.
La régression est l’une des méthodes les plus connues et les plus appliquées en statistique
pour l’analyse de données quantitatives. Elle est utilisée pour établir une liaison entre une
variable quantitative et une ou plusieurs autres variables quantitatives.
Sous la forme d’un modèle, si on s’intéresse à la relation entre deux variables, on parlera de
régression simple en exprimant une variable en fonction de l’autre. Si la relation porte entre
une variable et plusieurs autres variables, on parlera de régression multiple.
La régression linéaire simple et multiple est une classe particulière de modèle de règression
qui sert à expliquer une variable Y , appelée variable endogène par une ou plusieurs variables
explicatives dites exogènes a travers une fonction a¢ ne.
Ce travail se situe dans le cadre de l’analyse des données quantitatives, il est composé de
trois chapitres. Le premier consiste à présenter des généralités sur les séries statistiques, le
deuxième chapitre est consacré à étudier la régression linéaire simple où on va estimer les
paramètres b et a du modèle
Yt = b + aXt + "t
par la méthode des moindres carrés ordinaire (MCO) et tester sa signi…cativité. Finalement,
dans le dernier chapitre on généralise les résultats du chapitre 2 en traitant la régression
multiple représentée par le modèle suivant :
Ce chapitre sert à rappeler essentiellement des dé…nitions, outils et notions dont aura besoin
tout au long de ce travail. Pour plus de détails, on invite le lecteur à consulter les références
([2], [5], [7], et [9]).
1/ discret.
2/ continu.
Pour chaque individu de l’échantillon (de la population), on relève la valeur de deux caractères
x et y, on obtient alors une liste de couples de nombres (xi ; yj )1 i k , k; l 2 N que l’on
1 j l
peut présenter sous forme d’un tableau à deux entrées
X
k
* n: j est l’e¤ectif marginal de yj ; n: j = nij :
i=1
X
k X
l X
k X
l
* n est l’e¤ectif total, n = nij = ni : = n: j :
i=1 j=1 i=1 j=1
Soit la série statistique double (xi ; yj ; nij )1 i k où x1 ; x2 ; :::; xk sont les di¤érentes valeurs
1 j l
du premier caractère x et y1 ; y2 ; :::; yl sont les valeurs du second caractère y:
Dé…nition 1.2.1 "Nuage de points" Dans un repère orthogonal du plan, l’ensemble des
points Mij de coordonnées (xi ; yj ) constitue le nuage de points associé à la série statistique
double donnée ci-dessus.
Dé…nition 1.2.2 "Le point moyen" On appelle le point moyen du nuage de points associé
à la série statistique double (xi ; yj ; nij )1 i k le point G de coordonnées (x; y) où x et y sont
1 j l
les moyennes arithmétiques des séries statistiques (xi ; ni: )1 i k et (yj ; n:j )1 j l respectivement
dé…nies comme suit :
1X
k
x= xi
n i=1
et
1X
l
y= yj :
n j=1
1.2 Séries statistiques doubles 5
Exemple 1.2.1 Le tableau suivant donne le chi¤re d’a¤aire réalisé au cours des 6 derniers
mois par un site de vente en ligne en fonction du nombre de commandes reçues.
1X
k
x = xi
n i=1
1X
6
= xi
6 i=1
= 9254; 166667 ' 9254; 17
et
1X
l
y = yj
n j=1
1X
6
= yj
6 j=1
= 337500 DA
Dé…nition 1.2.3 On appelle covariance d’une série statistique double (xi ; yj ; nij )1 i k le
1 j l
nombre Cov(x; y) donné par :
Cov(x; y) = xy xy
!
1 X
k X
l
= nij xi yj xy
n i=1 j=1
Remarque 1.2.1 La covariance mesure les dispersions des deux variables x et y autour de
leurs moyennes.
1/ Si Cov(x; y) est nulle, on dit que les deux variables x et y se produisent indépendamment.
2/ Si Cov(x; y) > 0; les deux variables x et y sont liées positivement ) l’une augmente,
l’autre augmente aussi.
3/ Si Cov(x; y) < 0; les deux variables x et y sont liées négativement ) l’une augmente,
l’autre diminue.
1/ Cov(x; x) = V ar(x):
exprime de façon approchée les valeurs de la variable statistique y en fonction des valeurs de
la variable x: Alors, graphiquement, il s’agit de déterminer l’équation de la droite qui passe
au plus prés de la majorité des points du nuage.
Méthode de Mayer
ii/ Calculer les coordonnées des deux points moyens G1 et G2 associés à ces deux sous-séries.
Trouver l’équation de la droite qui passe par les deux points G1 et G2 : Cette droite est dite
la droite de Mayer, elle constitue un ajustement a¢ ne de la série statistique double.
Exemple 1.3.1 On reprend l’exemple (1.2.1). On partage le nuage de points en deux groupes
de même importance suivant les valeurs croissantes de xi , et on calcule les coordonnées des
points moyens G1 et G2 de chaque groupe de points.
373333; 33 301666; 67
a= = 27:07
10550 7958; 33
Et
Exemple 1.3.2 On considère 5 spécimens fossiles d’un animal disparu pour lesquels on pos-
sède les mesures de la longueur en (cm) de leur humérus x et de leur fémur y:
t xt yt x2t yt2 xt yt
1 44 40 1936 1600 1760
2 65 60 4225 3600 3900
3 71 59 5041 3481 4189
4 75 65 5625 4225 4875
5 87 77 7569 5929 6699
Moyenne 68,4 60,2 4879,2 3767 4284,6
2/ On peut déterminer, par la méthode des moindres carrées ordinaires, l’équation y = ax+b
de la droite (D) de régression de x et y: Comme
Cov(x; y) 166:92
a
^= = = 0; 83194
V ar(x) 200:64
et
= 3; 2955:
1.3 Ajustement a¢ ne d’une série statistique double 10
Alors
(D) : y = 0; 83194x + 0; 83194:
D’où
(D0 ) : x = 1; 16759y + 70; 28892:
Dé…nition 1.3.1 On appelle coe¢ cient de corrélation linéaire du couple (x; y), le nombre
réel r(x; y) déduit de la covariance et donné par :
Cov(x; y)
r(x; y) = :
x y
1/ Le coe¢ cient de corrélation ne dépend pas des unités de mesure des variables statistiques
étudiées.
jr(x; y)j 1:
4/ Si r(x; y) > 0, alors les variables aléatoires x et y varient dans le même sens, et elles
varient dans le sens contraire si r(x; y) < 0:
3
5/ Lorsque la corrélation est forte r(x; y) 4
les deux droites de régression sont très proches
et l’ajustement linéaire du nuage de points sera possible, dans le cas contraire le nuage
de points ne peut pas être ajusté par une droite, mais il se peut trouver une fonction
qui donne la variabilité de x par rapport à y:
Chapitre 2
L’estimation des paramètres b et a est obtenue en minimisant la somme des carrés des erreurs
X
n X
n X
n
M in "2t = M in (Yt b aXt )2 = M in S2
t=1 t=1 t=1
Pour que cette fonction ait un minimum, il faut que les dérivées par-rapport à b et a soient
nulles.
@S X n X
n X
n
=0,2 (Yt b aXt ) ( 1) = 0 ) Yt = nb + a Xt (2.1.2)
@b t=1 t=1 t=1
et
@S X n X
n X
n X
n
=0,2 (Yt b aXt ) ( Xt ) = 0 ) Yt Xt = b Xt + a Xt2 (2.1.3)
@a t=1 t=1 t=1 t=1
2.1 Estimation des paramètres par la méthode des moindres carrés ordinaires
(MCO) 12
En notant ^b et a
^ les solutions des équations (2.1.2) et (2.1.3), on obtient
X
n X
n
Yt Xt
^b = t=1
^ t=1
a
n n
ou
^b = Y a
^X (2.1.4)
car
X
n X
n
Yt Xt
t=1 t=1
Y = et X =
n n
sont les moyennes arithmétiques de Y et X respectivement.
En remlaçant la valeur de ^b dans l’équation (2.1.3), on obtient
!
X
n X
n X
n X
n
Yt Xt Y Xt = a Xt2 X Xt
t=1 t=1 t=1 t=1
ce qui donne
X
n X
n
Yt Xt Y Xt
t=1 t=1
a
^ =
Xn X
n
Xt2 X Xt
t=1 t=1
X
n
Yt Xt nY X
t=1
=
Xn
Xt2 nX 2
t=1
X
n
Yt Y Xt X
t=1
=
X
n
2
Xt X
t=1
Les estimateurs des MCO du modèle de régression linéaire simple (2.1.1) sont :
2.2 Les modèles de la régression linéaire simple 13
X
n
Yt Xt nY X
t=1
a
^ =
Xn
Xt2 nX 2
t=1
X
n
Yt Y Xt X
t=1
=
X
n
2
Xt X
t=1
et
^b = Y a
^X:
avec
*/ n : Nombre d’observations.
Yt = b + aXt + "t
2.3 Les tests d’hypothèses dans une régression linéaire simple 14
Yt = ^b + a
^Xt + et
avec
Y^t = ^b + a
^Xt
et
et = Yt Y^t
et = Yt ^b a
^Xt
2. E("2t ) = 2
"; 8t : La variance de l’erreur est constante.
xt = Xt X et yt = Yt Y
1/ L’espérance mathématique de a
^:
ce qui implique
X
n
yt xt
t=1
a
^= (2.3.2)
Xn
x2t
t=1
Alors
X
n
x t Yt
t=1
a
^= : (2.3.3)
Xn
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 16
Car
X
n X
n
xt = Xt X = nX nX = 0
t=1 t=1
X
n
xt (b + aXt + "t )
t=1
a
^ =
X
n
x2t
t=1
X
n X
n X
n
b xt + a xt Xt + x t "t
t=1 t=1 t=1
=
X n
x2t
t=1
X
n Xn
a xt Xt + x t "t
t=1 t=1
=
X
n
x2t
t=1
X
n X
n
a xt xt + X x t "t
t=1 t=1
= +
X
n Xn
x2t x2t
t=1 t=1
0 1 0 1
X
n X
n X
n
B x2t C B xt C x t "t
B t=1 C B t=1 C t=1
= aB
BX
C + Xa B
C BX
C+
C
@
n n X
n
2A @ 2A
xt xt x2t
t=1 t=1 t=1
Il résulte alors
X
n
x t "t
t=1
a
^ =a+ (2.3.4)
Xn
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 17
B x t "t C
B t=1 C
a) = E (a) + E B
E (^ B X n
C
C
@ 2 A
xt
t=1
X
n
xt E ("t )
t=1
= E (a) +
X
n
x2t
t=1
alors,
E (^
a) = a:
2/ L’espérance mathématique de ^b :
On a
^b = Y a
^X
Xn
xt yt
t=1
= Y X
Xn
x2t
t=1
0 1
Xn
B xt C
B t=1 C
= Y XB
BX n
C Yt
C Y
@ 2A
xt
t=1
0 1
Xn
B x t Yt C
B t=1 C
^b = Y XB
B X n
C:
C
@ A
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 18
D’ou 0 1
Xn B C
B1 Xxt C
^b = B C Yt
Bn X
n C
t=1 @ A
x2t
t=1
Or que
Yt = b + aXt + "t ;
donc
0 1 0 1 0 1
Xn B C
Xn B C
Xn B C
B1 Xxt C B1 Xxt C B1 Xxt C
^b = b B C+ B C aXt + B C "t
Bn X A
n C Bn X A
n C Bn X
n C
t=1 @ 2 t=1 @ 2 t=1 @ 2A
xt xt xt
t=1 t=1 t=1
0 1 0 1
X
n
B xt Xt C n B C
B t=1 C X B1 Xxt C
= b + aX B
aX B n C + B C "t
X C Bn X
n C
@ 2 A t=1 @ 2A
xt xt
t=1 t=1
Comme Xt = xt + X, on déduit
0 n 1 0 1
X
B xt xt + X C Xn B C
B t=1 C B1 Xxt C
^b = b + aX aX B C+ B C "t
B Xn C B X
n C
@ A t=1 @ n A
x2t x2t
t=1 t=1
0 1 0 1 0 1
X
n X
n
2
B xt C B xt C n B C
B t=1 C B C X B1 Xxt C
= b + aX aX B
BX
C
C
2B t=1
aX B n C
C + B
B
C "t :
C
@
n
A @ X A t=1 @ n X
n
A
x2t x2t x2t
t=1 t=1 t=1
On obtient alors 0 1
Xn B C
B1 Xxt C
^b = b + B C "t :
Bn X
n C
t=1 @ A
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 19
Xn B C
B1 Xxt C
= E (b) + B C E ("t )
Bn X
n C | {z }
t=1 @ 2 A =0
xt
t=1
E ^b = E (b) = b:
3/ La variance de a
^:
V ar (^
a) = E [^
a a)]2 et E (^
E (^ a) = a:
Ce qui implique
X
n
x t "t
t=1
a
^ a= :
Xn
x2t
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 20
B x t "t C
B t=1 C
V ar (^
a) = E (^
a a) = E B
2
B X n
C
C
@ A
x2t
t=1
!2
1 X
n
= !2 E x t "t
X
n
t=1
x2t
t=1
1 2 2 2 2 2 2
= !2 E x1 "1 + x2 "2 + :: + xn "n + 2x1 x2 "1 "2 + :: + 2xn 1 xn "n 1 "n :
X
n
x2t
t=1
D’après les hypothèses (1), (2), et (3) du modèle de régression simple, on obtient :
1 2 2 2 2 2 2
V ar (^
a) = !2 " x1 + " x2 + :: + " xn :
X
n
x2t
t=1
D’où
X
n
2
" x2t
t=1
V ar (^
a) = !2
X
n
x2t
t=1
2
"
= :
X
n
x2t
t=1
Finalement
2
"
V ar (^
a) =
X
n
x2t
t=1
3/ La variance mathématique de ^b :
2.3 Les tests d’hypothèses dans une régression linéaire simple 21
On a
0 1
Xn B C
B1 Xxt C
^b = b + B C "t
Bn X
n C
t=1 @ A
x2t
t=1
0 1
Xn B C
B1 Xxt C
) ^b b= B C "t :
Bn X
n C
t=1 @ A
x2t
t=1
Puisque E ^b = b, on obtient
2
V ar ^b = E ^b b
2 0 1 32
6X B C 7
6 n B1 Xxt C 7
6
= E6 B C "t 7
B X A 7
n C
4 t=1 @ n 5
x2t
t=1
20 1 0 1 32
6B C B C 7
6B 1 Xx1 C B Xxn C 7
= E6B C "1 + ::: + B 1 C "n 7
6B n X C
n Bn X C
n 7
4@ A @ A 5
x2t x2n
t=1 t=1
2 0 12 0 12 3
6 B C B C 7
6 B1 Xx1C 2 B1 Xxn C 2 7
6 Bn X
n C " 1 + ::: + Bn X
n C "n + 7
6 @ A @ A 7
6 2 xt 2 xn 7
6 7
= E6
6 00 1 0 t=1 1 0 t=1 1 0 1 1 7
7
6 7
6 BB C B C B C B C C 7
6 BB 1 Xx1C B1 Xx2C B1 Xxn C B1 Xxn C C 7
6 2 BB n X
n C "1 B n X
n C 2
" + ::: + Bn X
n
1
C "n 1 Bn X
n C "n C 7
4 @@ 2
A @ 2
A @ 2
A @ 2
A A 5
xt xt xt xt
t=1 t=1 t=1 t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 22
D’après les hypothèses (1), (2) et (3) du modèle de régression simple, on obtient
0 12
Xn B C
B1 Xxt C
V ar ^b = 2 B C :
" Bn X
n C
t=1 @ A
x2t
t=1
Il résulte, alors 0 1
B C
Xn B C
B1 2Xxt X 2 x2t C
V ar ^b = 2" B 2 + !2 C
Bn X
n
X
n C
t=1 @ 2 A
n xt x2t
t=1 t=1
X
n
Puisque xt = 0;
t=1 0 1
X
n
B x2t
+ nX 2
C
B t=1 C
V ar ^b = 2 B C
" B X
n C
@ A
n x2t
t=1
B Xt2 C
B
2 B t=1
C
V ar ^b = "B X
C
n C
@ A
n x2t
t=1
0 1
X
n
B Xt2 C
B
2B
C
= "B X
t=1 C
n C
@ 2A
n Xt X
t=1t
Comme ^b; a
^ sont sans biais, alors
2 0 1 3
X
n
6 n B C x t "t 7
6X B 1 Xxt C 7
Cov ^b; a
^ = E6
6
B
B
C "t
C
t=1 7
7
4 t=1 @ n X
n
A Xn
5
x2t x2t
t=1 t=1
20 13
X
n X
n X
n X
n
6B "t x t "t X x t "t x t "t C 7
6B C7
6B t=1 t=1 C7
Cov ^b; a
^ = E 6B t=1 t=1
!2 C7
6B X n
X
n C7
4@ n x2t A5
x2t
t=1
2 3 2 t=1 !2 3
X
n X
n Xn
D’après les hypothèses (1), (2) et (3) du modèle de régression simple, il résulte que
2
X
Cov ^b; a
^ = "
X
n
x2t
t=1
Théorème 2.3.1 (Gaus Markov) : Les estimateurs sans biais du modèle de la régression
simple (2.1.1) sont linéaires et de variances minimales.
Xn
Preuve. L’estimateur des MCO s’écrit a ^= pt yt , avec
t=1
(Xt X)
pt =
X
n
(Xt X)2 :
t=1
On considère un autre estimateur linéaire en yt et sans biais, c’est-à-dire
Xn
= t yt
t=1
X
n X
n
et on montre que t = 0 et t xt = 1 et E("t ) = 0: L’égalité
t=1 t=1
X
n X
n X
n
E( ) = b t +a t xt + t E("t )
t=1 t=1 t=1
X
n X
n
= b t +a t xt
t=1 t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 24
est vraie pour tout a. L’estimateur est sans biais donc E( ) = a pour tout a, c’est-à-dire
Xn X
n
que t = 0 et t xt = 1: On montre maintenant que V ar( ) a): On a
V ar(^
t=1 t=1
V ar( ) = V ar( a
^+a
^)
= V ar( a
^) + V ar(^
a) + 2Cov( a
^; a
^):
Or
Cov( a
^; a
^) = Cov( ; a
^) V ar(^
a)
X
n
2
t (Xt X)
2
t=1
= X X
(Xt X)2 (Xt X)2
= 0:
X
n X
n
Cette dernière égalité étant due aux relations t = 0 et t xt = 1: Ainsi,
t=1 t=1
V ar( ) = V ar( a
^) + V ar(^
a):
V ar( ) V ar(^
a):
Lemme 2.3.1 Soit le modèle de régression simple (2.1.1) véri…ant les hypothèses citées ci-
dessus, alors
X
n
1= et = 0 : la somme des résidus est nulle (la droite de régression passe par le point
t=1
moyen, cela est valable uniquement pour les modèles contenant le terme constant).
X
n Xn
2= Yt = Y^t : égalité entre la moyenne de la série à expliquer et la moyenne de la série
t=1 t=1
ajustée.
2.3 Les tests d’hypothèses dans une régression linéaire simple 25
Preuve. Soit le modèle de régression simple :Yt = b + aXt + "t ; sachant que le résidu est :
et = Yt Y^t
où
Y^t = ^b + a
^Xt :
1/ On sait que
Yt = Y^t + et
= ^b + a
^Xt + et :
Donc
X
n X
n X
n
Yt = n^b + a
^ Xt + et
t=1 t=1 t=1
ce qui imlique
X
n
et = nY n^b a
^nX:
t=1
Par conséquent
X
n
et = 0:
t=1
X
n
2/ Puisque et = 0; on déduit alors
t=1
X
n X
n
et = Yt Y^t = 0
t=1 t=1
X
n X
n
=) Yt Y^t = 0
t=1 t=1
X
n X
n
=) Yt = Y^t :
t=1 t=1
D’où Y = Y^ :
2.3 Les tests d’hypothèses dans une régression linéaire simple 26
A partir des deux propriétés du Lemme (2.3.1), on peut déduire la fonction fondamentale
d’analyse de la variance. On a
Yt Y^t = et =) Yt = Y^t + et :
D’où
Yt Y = Y^t + et Y:
Cela implique
2 2
Yt Y = Y^t Y + e2t + 2 Y^t Y et :
Comme
X
n X
n X
n
et = 0 et Yt = Y^t ;
t=1 t=1 t=1
alors
X
n
Yt Y^t = 0:
t=1
On déduit donc
X
n
2
X
n
2 X
n
Yt Y = Y^t Y + e2t :
t=1 t=1 t=1
D’où
Dé…nition 2.3.1 L équation (2.3.5) est appelée l’équation de l’analyse de la variance, telle
que
X
n
2
1/ SCT = Yt Y : désigne la variabilité totale.
t=1
Xn
2
2/ SCE = Y^t Y : désigne la variabilité expliquée.
t=1
X
n X
n
2
3/ SCR = e2t = Yt Y^t : désigne la variabilité des résidus.
t=1 t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 27
Exemple 2.3.1 On dispose des données qui sont représentés dans le tableau suivant :
où Yt : Désigne les quantités consommées (en kg) et Xt : Désigne le prix des quantités
consommées (en DA).
2.3 Les tests d’hypothèses dans une régression linéaire simple 28
1/ On trace un graphique des couples de données liant le prix et les quantités consommées.
On obtient le nuage de points suivant :
X
n
Yt Y Xt X
Cov (X; Y ) t=1
a
^= =
V ar (X) X
n
2
Xt X
t=1
et
^b = Y a
^X
On a n = 7, X = 400 kg et Y = 60 DA:
2
V ar (X) = X 2 X
1X 2
7
2
V ar (X) = X X
7 t=1
V ar (X) = 200000 (400)2
et
Cov (X; Y ) = XY X Y
1X
7
Cov (X; Y ) = Xt Yt X Y
7 t=1
Cov (X; Y ) = 26357; 14286 24000
On trouve, donc
2357; 142857
a
^ =
40000
= 0; 058928571
et
^b = Y a
^X
^b = 60 (0; 0589 400)
^b = 36; 42857143
Yt = b + aXt + "t
où
2.3 Les tests d’hypothèses dans une régression linéaire simple 30
Y^t = ^b + a
^Xt
et
Y = b + aX + ":
On a
et = b + aXt + "t ^b a
^Xt :
et = b + aXt Y +a
^X a
^Xt + "t
et = (a a
^) Xt (a a
^ ) X + "t "
= (a a
^) Xt X + ("t ") :
D’où
et = (a a
^) xt + ("t ")
X
n X
n
e2t = [(a a
^) xt + ("t ") ]2
t=1 t=1
X
n
2 2
X
n X
n
= ("t " ) + (a a
^) x2t + 2 (a a
^) xt ("t ")
t=1 t=1 t=1
Cela conduit à
X
n X
n
2 2
X
n
e2t = ("t ") (a a
^) x2t
t=1 t=1 t=1
En passant à l’espérance mathématique, on obtient
! " n #
X n X 2 2
X
n
E e2t = E ("t " ) E (a a
^) x2t
t=1 t=1 t=1
a/
" # " #
X
n
2
X
n
E ("t ") = E "2t 2""t + "2
t=1
" t=1 #
X n X
n X
n
= E "2t 2" "t + "2
" t=1 t=1 t=1
#
X n
= E "2t 2"n" + n"2
" t=1 #
X n
= E "2t 2n" + n" 2 2
" t=1 #
X n
= E "2t n" 2
" t=1 #
X n X
n
= E "2t " "t
t=1 t=1
2 " #2 3
X
n
6 "t 7
6X n 7
6 t=1 7
= E6 "2t 7
6 n 7
4 t=1 5
2 !2 3
Xn
1 X
n
= 4 E "2t E "t 5
t=1
n t=1
Comme E ("2t ) = 2
" (hypothèse 2)
" #
X
n
1
E ("t " )2 = n 2
" E("21 + "22 + ::: + "2n ):
t=1
n
Or, d’après l’hypothèse 3 d’indépendance des erreurs, les doubles produits sont donc tous
nuls. Par conséquent
" #
X
n
1
E ("t " )2 = n 2
" n 2
" =n 2
"
2
"
t=1
n
2
= " (n 1)
b/
2
X
n
E (a a
^) x2t = 2
":
t=1
2.3 Les tests d’hypothèses dans une régression linéaire simple 32
En e¤et
2
E (a ^)2 =
a "
:
X
n
x2t
t=1
D’où !
X
n
E e2t = 2
" (n 1) 2
"
t=1
2
= (n 2) ":
Alors
X
n
e2t
t=1
^ 2" =
n 2
^ 2" est un estimateur sans biais de 2
".
Yt = b + aXt + "t :
On sait que
X
n
e2t
t=1
^ 2" = (2.3.6)
n 2
2 2
et "i suit la loi normale de moyenne nulle et de variance "; N (0; ") :
De (2.3.6) on a
X
n
(n 2) ^ 2" = e2t
t=1
X
n
e2t
(n 2) ^ 2" t=1 2
=) 2
= 2
! n 2
" "
2
où n 2 est la loi de Khi-deux de (n 2) degrés de liberté.
2.3 Les tests d’hypothèses dans une régression linéaire simple 33
D’autre part, on a
0 1 0 0 11
X
n
B C B B Xt2 CC
B 2 C B B CC
B
^ ! N Ba; n
a " C
et b ! N B
^ 2 B t=1 CC
C Bb; " B X CC
@ X 2A
n
@ @ 2 AA
xt n Xt X
t=1 t=1
a
^ a ^b b
Z1 = v 2 ! N (0; 1) et Z2 = v 0 1 ! N (0; 1)
u " u X
n
uX n u
t u B Xt2 C
x2t u B C
u 2 t=1
t=1 u "B X n C
t @ 2A
n (Xt X )
t=1
D’après la dé…nition de la loi de Student T qui est : le rapport d’une loi centrée réduite et la
racine carrée d’une loi de khi-deux divisée par le nombre de ses degrés de liberté. On a
Z1
TC = q p
(n 2) ^ 2" = 2" = n 2
" Z1 " a
^ a
TC = = : s n ! Tn 2 :
^" ^" X
"= x2t
t=1
Finalement,
a
^ a %
TC = ! Tn 2 ; (2.3.7)
^ 2a^ 2
où Tn 2 est la loi de Student de (n 2) degré de liberté et est le taux (seuil) de risque.
Suivant la même procédure pour ^b, on obtient
^b b %
TC = ! Tn 2 ; (2.3.8)
^^2b 2
A partir des résultats (2.3.7) et ( 2.3.8), on peut e¤ectuer les tests d’hypothèses suivants :
8 8
< H0 : b = 0 < H0 : a = 0
contre et contre
: :
H1 : b 6= 0 H1 : a 6= 0
2.3 Les tests d’hypothèses dans une régression linéaire simple 34
a
^ a %
TC = ! Tt n 2;
^ a^ 2
où
* n 2 : Degré de liberté.
Règle de décision
=0:05
– Si jTC j < Tt on accepte l’hypothèse H0 : la variable xi n’est pas contributive à l’ex-
plication de Y .
=0:05
– Si jTC j > Tt on accepte l’hypothèse H1 : la variable xi est contributive à l’explication
de Y .
De même, le test du paramètre b consiste à tester l’hypothèse suivante :
8
< H0 : b = 0
contre
:
H1 : b 6= 0
^b b %
TC = ! Tt n 2;
^^b 2
avec
2.3 Les tests d’hypothèses dans une régression linéaire simple 35
* n 2 : Degré de liberté.
Règle de décision
=0:05
– Si jTC j < Tt on accepte l’hypothèse H0 : le modèle ne contient pas de constante.
=0:05
– Si jTC j > Tt on accepte l’hypothèse H1 : le modèle contient la constante.
Dé…nition 2.3.2 L’estimation par intervalle d’un paramètre inconnu consiste à calculer
à partir d’un estimateur choisi ^, un intervalle Ic = [LI; LS] dans lequel il est vraisemblable
que la valeur correspondante du paramètre s’y trouve. La probabilité liée à cet intervalle de
con…ance est exprimée en pourcentage noté 1 où est le taux de risque. La probabilité
1 est appelée le niveau de con…ance ou le seuil de con…ance
Pr (LI LS) = 1
Remarque 2.3.2 Le niveau de con…ance est toujours associé à l’intervalle et non au para-
mètre inconnu :
Les intervalles de con…ances des paramètres a et b au seuil donné (au niveau de con…ance (1 ))
sont donnés par :
p
Intervalle de con…ance du paramètre a :
2.3 Les tests d’hypothèses dans une régression linéaire simple 36
Pr a
^ T 2 ^ a^ < a < a
^ + T 2 ^ a^ = 1
p
Intervalle de con…ance du paramètre b :
h i
Pr ^b T 2 ^^b < b < ^b + T 2 ^^b = 1
p 2
Intervalle de con…ance de : On a
X
n
e2t
t=1
^2 = = S2
n 2
(n 2) S 2 2
=) 2
! n 2
D’où
2 (n 2) S 2 2
Pr 1 < 2
< 2 =1
2
1 (n 2) S 2 2
2
Pr < < =1 :
(n 2) S 2 2 (n 2) S 2
Finalement
(n 2) S 2 2 (n 2) S 2
Pr 2
< < 2
=1
2 1
On a déjà dé…ni SCT , SCR et SCE; ces sommes peuvent être utilisées pour tester l’hypo-
thèse suivante : 8
< H0 : b = 0
contre
:
H1 : b 6= 0
Sous l’hypothèse H0 : b = 0, On a
avec (n 1); (1) et (n 2) sont des degrés de libertés de SCT; SCE; et SCR respectivement.
D’autre part, lorsque H0 est véri…ée on a
avec
*/ FT : désigne la valeur de Fisher lue à partir de la table statistique de Fisher aux degrés
de liberté 1; n 2.
*/ % : Le seuil donné.
Règle de décision
1. Si jFC j > FT (1; n 2; %) on rejette l’hypothèse H0 ; cela signi…e que, H1 est acceptée :
c’est-à-dire le modèle est globalement signi…catif.
2. Si jFC j < FT (1; n 2; %) on rejette l’hypothèse H1 ; cela signi…e que, H0 est acceptée :
c’est-à-dire le modèle n’est pas globalement signi…catif.
Exemple 2.3.2 On veut expliquer le rendement de mais Y (en quintal) à partir de la quantité
d’angrais utilisé (en kg) sur des parcelles de terrain similaires.
i Y X
1 16 20
2 18 24
3 23 28
4 24 22
5 28 32
6 29 28
7 26 32
8 31 36
9 32 41
10 34 41
Moyenne 26.1 30.4
Le tableau ci-dessous représente les données "Rendements Agricoles"
2
i Y X Yt Y Xt X Yt Y Xt X Xt X
1 16 20 -10,1 -10,4 105,4 108,160
2 18 24 -8,1 -6,4 51,4 40,960
3 23 28 -3,1 -2,4 7,44 5,765
4 24 22 -2,1 -8,4 17,64 70,560
5 28 32 1,9 1,6 3,04 2,560
6 29 28 2,9 -2,4 -6,96 5,760
7 26 32 -0,1 1,6 -0,6 2,560
8 31 36 4,9 5,6 27,44 31.360
9 32 41 5,9 10.6 62.54 112.360
10 34 41 7,9 10.6 38.74 112.360
Moyenne 26,1 30,4 Somme 351,6 492,4
Estimation des coe¢ cients "Rendements agricoles " voici les prancipales étapes :
et
^b = Y a
^X = 26; 1 0; 7141 30; 4 = 4; 3928 Q
Calculer la colonne des valeurs prédites Y^ ;en déduire le résidu ^" et …nalement obtenir les
sommes des carrés .
2
i Y X Yt Y Xt X Yt Y Y^ ^" ^"2
1 16 20 -10,1 -10,4 102,010 18,674 -2,674 7,149
2 18 24 -8,1 -6,4 65,610 21,530 -3,530 12,461
3 23 28 -3,1 -2,4 9,610 24,386 -1,386 1,922
4 24 22 -2,1 -8,4 4,410 20,102 3,898 15,195
5 28 32 1,9 1,6 3,610 27,242 0,758 0,574
6 29 28 2,9 -2,4 8,410 24,386 4,614 21,286
7 26 32 -0,1 1,6 0,010 27,242 -1,242 1,544
8 31 36 4,9 5,6 24,010 30,099 0,901 0,812
9 32 41 5,9 10,6 34,810 33,669 -1,669 2,785
10 34 41 7,9 10,6 62,410 33,669 0,331 0,110
26; 1 30; 4 314; 9 63; 838749
Moyenne |{z} |{z} Somme | {z } Somme | {z }
Y X SCT SCR
On a
SCE = SCT SCR = 251; 061251;
p
^" = 7; 980 = 2; 825:
Pour obtenir l’estimation de l’écart -type de la pente , nous avons besoin de la somme des
écarts à la moyenne au carré des x
2.3 Les tests d’hypothèses dans une régression linéaire simple 41
v
u
u ^ 2"
^ a^ = u n
uX
t Xt X
2
t=1
r
7; 980
=
492; 4
p
= 0; 01621
= 0; 12730:
a
^ 0; 71405
Ta^ = = = 5; 60909:
^ a^ 0; 12730
Au risque = 5%; le seuil critique pour la loi de Student à (n 2) degrés de liberté pour un
test bilatéral est T1 2
= 2; 30600: Puisque j5; 60909j > 2; 30600; on calcule que la pente est
signi…cativement nou nulle au risque 5%: On souhaite mettre en oeuvre le test d’hypothéses
suivant pour les "Rendements agricoles "
H0 : a = 0:5
H1 : a > 0:5
Il s’agait d’un test de conformité à un standard unilatéral. La région critique au risque du
test s’écrit
a
^ 0; 5
R:C : > T1
^ a^
Voyons ce qu’il en sur nos données
a
^ 0; 5 0; 71405 0; 5
= = 1; 68145
^ a^ 0; 12730
A comparer avec T0;95 (8) = 1; 85955 pour un test à 5% .Nous sommes dans la région d’ac-
ceptation c-à-d .nous ne pouvons pas rejeter l’hypothèse nulle .
La valeur du paramétre a n’est pas signi…cativement supérieur à la référence 0; 5 au risque
5%:
2.3 Les tests d’hypothèses dans une régression linéaire simple 42
a
^ T2 ^ a^ ; a
^ + T2 ^ a^
En pratique la variable expliquée ne dépend pas que d’une variable explicative. On introduit
dans ce chapitre des modèles de régression linéaire avec plusieurs variables explicatives. On
parle alors de la régression linéaire multiple.
La droite de régression que l’on avait en régression simple est ici remplacée par un hyperplan
des régressions. A…n d’estimer les paramètres de cet hyperplan, on peut comme en régression
simple, utiliser la méthode des moindres carrés.
avec
6. n = nombre d’observations.
3.1 Modèle de la régression multiple 44
L’écriture du modèle (3.1.1) est n’est pas très pratique. A…n de faciliter l’expression de
certains résultats, on a habituellement recours aux notations matricielles. En écrivant le
modèle (3.1.1), observation par observation, on obtient
8
>
> Y1 = b0 + b1 x11 + b2 x21 + ::: + bk xk1 + "1
>
>
< Y2 = b0 + b1 x12 + b2 x22 + ::: + bk xk2 + "2
:::
>
>
>
> Yt = b0 + b1 x1t + b2 x2t + ::: + bk xkt + "t
:
Yn = b0 + b1 x1n + b2 x2n + ::: + bk xkn + "n
On peut réécrire le modèle (3.1.1) sous la forme matricielle suivante :
telle que
0 1 0 1
Y1 b0 0 1 0 1
B C B C 1 x11 x21 : : xk1 "1
B Y2 C B b1 C B C B C
B C B C B 1 x12 x22 : : xk2 C B "2 C
B : C B : C B C B C
: : : : : x :
Y(n;1) =B
B : C; B =B
C B : C; X =B
C B
C et " = B
C B
C
C
B C B C B : : : : : : C B : C
B Yt C B bt C @ A @ A
@ A @ A 1 x1t x2t : : xkt "t
: :
1 x1n x2n : : xkn "n
Yn bk
On remarque que la première colonne de la matrice X, est le vecteur 1n (tous les termes sont
1), qui correspond au coe¢ cient b0 (coe¢ cient du terme constant).
La matrice X est de n lignes et k + 1 colonnes (k est le nombre de variables explicatives
réelles, c’est-à-dire constante exclue) et n est le nombre d’observations.
Les hypothèses du modèle le modèle (3.1.1) repose sur les hypothèses suivantes :
3/ H2 : E("2t ) = 2
" la variance de l’erreur est constante 8(t):
Yt = Xt B + "t (3.2.1)
A…n d’estimer le vecteur (B) composé des coe¢ cients b0 ; b1 ; b2 ; :::; bk , on applique la méthode
des moindres carrées ordinaire (MCO) qui consiste à minimiser la somme des carrées des
erreurs. L’expression à minimiser sur B s’écrit
X
n X
n
"2i = [yi b0 b1 xt1 ::: bk xtk ]2
i=1 i=1
= kY XBk2
= (Y XB)0 (Y XB)
S = (Y XB)0 (Y XB)
= Y 0Y 2B 0 X 0 Y + B 0 X 0 XB
@S
= 2X 0 Y + 2X 0 XB:
@B
X
n
@S
Comme min "2i est la valeur qui annule @B
; alors
i=1
@S
=0) 2X 0 Y + 2X 0 XB = 0
@B
d’où
1
B = (X 0 X) X 0Y
3.2 Estimation des coe¢ cients de régression 46
avec
et = Yt Y^t ,
On a
Y =X B ^ +"
=) e = Y Y^ .
Y^ = X B^
Alors
^ = (X X) 1 X 0 Y = (X X) 1 X 0 (X B + ")
B
^ = (X X) 1 X 0 (X B) + (X X) 1 X 0 "
B
^ = B + (X X) 1 X 0 "
B
^
B B = (X X) 1 X 0 " (3.2.2)
D’où
^ = B + (X X) 1 X 0 E(") = B
E(B)
3.2 Estimation des coe¢ cients de régression 47
h i
^ =E (B
V ar( B) ^ ^
B)( B B) (3.2.3)
Or d’après (3.2.2)
0
^
B B = (X X) 1 X 0 " et ^
B B = "0 X(X 0 X) 1 :
ce qui conduit à
0
^
B B ^
B B = (X X) 1 X 0 ""0 X(X 0 X) 1 :
D’où
^ = (X X) 1 X 0 E (""0 ) X(X 0 X)
V ar( B) 1
car E (""0 ) = 2
"I : matrice des variances de l’erreur ": En e¤et, d’après les hypothèses H3 et
H4 ; on a
0 1
[E ("1 "1 )] E ("1 "2 ) ::: E ("1 "n )
B E ("2 "1 ) E ("2 "2 ) ::: E ("2 "n ) C
E (""0 ) = B
@
C
A
::: :::
E ("n "1 ) E ("n "2 ) ::: E ("n "n )
0 2 1
" 0 ::: 0
B 0 2
" ::: 0 C
B
= @ C
::: ::: A
2
0 0 0 "
^ devient
Alors, V ar( B)
^ =
V ar( B) 2 1 1
" (X X) (X X)(X X)
En…n,
^ =
V ar( B) 2 1
(3.2.4)
" (X X) :
2
Puisque " est inconnu, on l’estime . Soit le modèle
Yt = X B + " t
On a
e=Y Y^
3.2 Estimation des coe¢ cients de régression 48
et
Y^ = X B:
^
D’où
et = Y ^
XB (3.2.5)
et = Y X(X X) 1 X 0 Y = I X(X X) 1 X 0 Y:
On pose
M =I X(X X) 1 X 0 :
Alors
X
n
e2t = e0 e = "0 M 0 M " = "M "
t=1
et
E(e0 e) = 2
" In T r I X(X X) 1 X 0 = 2
" In (n k 1) :
On obtient alors
e0 e
^ 2" = ; n > k + 1 (hypothsèse H8 ) :
n k 1
L’estimateur sans biais de la variance ^ 2" est donné par
X
n
2
Y^t Y
t=1
s2 =
n k 1
SCE
=
n k 1
où SCE est la somme des carrés des résidus
2
SCE = Y^t Y In
2 2
SCT = Yt Y In = Y 0Y n Y ;
3.2 Estimation des coe¢ cients de régression 49
SCR = k^"k2 :
SCR
R2 = 1
SCT
X n
^"2
t=1
= 1
X
n
2
Yt Y
t=1
X
n
2
Y^t Y
t=1
= 1
X
n
2
Yt Y
t=1
Remarque 3.2.1 Le coe¢ cient de détermination corrigé R2 véri…e les propriétés suivantes
1/ R2 < R2 si k > 1:
2/ R2 = R2 si k = 1:
Tester l’in‡uence directe de la variable explicative sur la variable endogène, revient à tester
son coe¢ cient de régression s’il est égale ou di¤érent de 0, pour un seuil choisi, en général on
prend = 0; 05: Le test bilatéral d’hypothèse est le suivant :
8
< H0 : bt = 0;
contre
:
H1 : bt 6= 0:
^bt bt %
TC = ! St n k 1; (3.3.1)
^^bt 2
avec
*/ T c : la valeur calculée,
*/ n k 1 : degrés de liberté,
%
*/ 2
: seuil de risque.
Règle de décision
=0;05
Si jTC j < T on accepte l’hypothèse H0 : la variable xt n’est pas contributive à l’expli-
cation de Y . Dans le cas contraire, on rejette H0 et on accepte H1 :
Le test de Fisher est test de signi…cation globale du modèle de regression. Pour tester si
l’ensemble des variables explicatives ont une infuence sur la variable à expliquer, on fait le
test d’hypothèse suivant :
Contre
L’hypothèse alternative H1 : il existe au moins bi 6= 0
3.3 Les tests statistiques 51
Sous H0 , on a
X
n
2
(Y^t Y)
t=1
k
FC = X
n
"2
^
t=1
(n k 1)
X
n
y^t2
t=1
k
= X
n
"2
^
t=1
(n k 1)
R2
k
FC = (1 R2 )
! F (k; n k 1; %) (3.3.2)
(n k 1)
avec
*/ FC : la valeur calculeé,
*/ % : seuil de risque .
Régle de décision
3.4 Application
Soit le modéle à trois variables explicatives x1 ; x2 et x3
1/
t Y x1 x2 x3
1 12 2 45 121
2 14 1 43 132
3 10 3 43 154
4 16 6 47 145
5 14 7 42 129
6 19 8 41 156
7 21 8 32 132
8 19 5 33 147
9 21 5 41 128
10 16 8 38 163
11 19 4 32 161
12 21 9 31 172
13 25 12 35 174
14 21 7 29 180
1/ Forme matricielle du modèle : on dispose de 14 observations (n = 14) et trois va-
riables explicatives, le modèle peut donc s’écrire : Y = XB + "; avec
0 1 0 1 0 1
12 1 2 45 121 0 1 "1
B C B C b0 B C
B 14 C B 1 1 43 132 C B b1 C B "2 C
Y =B
B 10 C ; X=B
C B 1 3 43 145 C ; B=B
C
C et " = B
@ b2 A B "3 C:
C
@ ::: A @ ::: ::: ::: ::: A @ ::: A
b3
21 1 7 29 180 "14
^ = (X 0 X) 1 X 0 Y , on calcule X 0 X et (X 0 X)
2/ Estimation des paramètre du modèle : B 1
3.4 Application 53
0 1
0 1 1 2 45 121
1 1 1 ::: 1 B C
B 1 1 43 132
2 1 3 ::: 7 C B C
X 0X = B CB 1 3 43 145 C
@ 45 43 43 ::: 29 A B
@
C
A
::: ::: ::: :::
121 132 154 ::: 180
1 7 29 180
0 1
14 85 532 2094
B 85 631 3126 13132 C
= B
@ 532
C
3126 20666 78683 A
2094 13132 78683 317950
et
0 1
20; 1864 0; 015065 0; 23145 0; 07617
B 0; 015065 0; 013204 0; 001194 0; 00094 C
(X 0 X) 1
=B
@ 0; 23145 0; 001194 0; 003635 0; 000575 A .
C
On prend ^b0 = 32; 89, ^b1 = 0; 80; ^b2 = 0; 38; et ^b3 = 0; 03:
e = Y Y^ = Y ^
X B
En remplçant les paramètres ^bt par leurs valeurs trouvées ci-dessus, on trouve
3.4 Application 54
t Y Y^t et e2t
1 12 12,84 -0,80 0,70
2 14 12,39 1,61 2,58
3 10 13,18 -3,18 10,11
4 16 13,39 1,61 2,58
5 14 17,70 -3,70 13,67
6 19 17,88 1,12 1,26
7 21 22,20 -1,20 1,44
8 19 18,86 0,14 0,02
9 21 16,51 4,49 20,14
10 16 18,76 -2,70 7,63
11 19 17,92 1,08 1,17
12 21 21,90 -0,90 0,81
13 25 22,71 2,90 5,27
14 21 20,76 0,24 0,06
P
14 P
14
/ / / et = 0 e2t = 67; 45
t=1 t=1
X
14
e2t
0
ee 67; 45
^ 2" = = t=1 = = 6; 745:
n k 1 14 3 1 10
^ = ^ 2 (X X) 1
V ar( B) "
0 1
20; 1864 0; 015065 0; 23145 0; 07617
B 0; 015065 0; 013204 0; 001194 0; 00094 C
= 6; 745 B C
@ 0; 23145 0; 001194 0; 003635 0; 000575 A :
0; 07617 0; 00094 0; 000575 0; 000401
X
14
4/ Le coe¢ cient de détermination R2 : d’après ce qui précède, on a e2t = 67; 45,
t=1
X
14
2
et Yt Y = 226; 86: Alors
t=1
X
14
e2t
t=1 67; 45
R2 = 1 =1 = 0; 702
X
14
2
226; 86
Yt Y
t=1
2
Le R corrigé est donné par :
n k 1
R2 = 1 1 R2
n 1
14 1
= 1 (1 0; 702) = 0; 613
14 4
^b1 0; 80
T^b1 = = = 2; 75
^^b1 0; 29
0;05 0;05
et la valeur lue de la table de Student est T10 = 2; 228: Comme T^b1 > T10 ; alors l’hypothèse
Ho est rejetée. Par conséquent H1 est acceptée b1 6= 0: On déduit donc que la variable
explicative x1 est contributive à l’explication de Y; de même pour les autres paramètres du
modèle
^b2 0;38 0;05
*/ ^ ^b
= 0;15
= T^b2 = 2; 53 > T10 = 2; 228 ! b2 6= 0 est l’hypothèse acceptée.
2
3.4 Application 56
l’hypothèse acceptée.
Remarque 3.4.1 La variable x2 est explicative de Y alors que la variable x3 n’est pas contri-
butive à l’explication de Y , il convient donc de la retirer de ce modèle et de procéder à une
nouvelle estimation .
R2 0;702
k 3 0:05
FC = (1 R2 )
= (1 0;702)
= 7; 878 > F(3;10) = 3; 71
(n k 1) 10
0:05
F(3;10) est la valeur lue de la table de Fisher à (3; 10) degrés de liberté et au seuil = 5%: On
rejette l’hypothèse H0 de nullité de tous les coe¢ cients. Alors, la régression est globalement
signi…cative.
Conclusion
Ce mémoire est une courte exposition de l’un des outils statistiques qui construisent un
modèle statistique, en comparant la relation entre une variable dépendante et une autre
variable indépendante, a…n de produire une équation statistique qui peut clari…er la relation
entre ces variables. Cette relation est dite la régression linéaire.
La régression linéaire peut être simple, lorsqu’il y a une variable dépendante et une autre
indépendante, ou multiple, lorsqu’il y a un nombre k 2 de variables exlicatives d’une
variable à expliquer.
Annexe 1 : Table de Student
Table de Student
Annexe 2 : Table de Fisher
Table de Fisher
Annexe 3 : Table de Fisher "suite"
Table de Fisher
Bibliographie
[1] Dj. Bensikaddour, Cours de Statistique II, Master 1 Analyse fondamentale, Univ-
Mostaganem, (2020).
[11] Ra. Ricco, Econométrie, La régression linéaire simple et multiple, Université Lumière
Lyon 2, (2018).