Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Poly Cours 3

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 12

Analyse de la Variance à 1 Facteur

Antoine Godichon-Baggioni

INSA de Rouen – Génie Mathématique - 4ème année

1 Introduction
L’analyse de variance (ANOVA) recouvre un ensemble de techniques de tests et d’estimation destinés
à apprécier l’effet d’une ou plusieurs variables qualitatives sur une variable quantitative et revient dans
le cas simple à comparer plusieurs moyennes d’échantillons gaussiens : on généralise le test classique
d’égalité de deux moyennes au test d’égalité de p moyennes (p ≥ 2).
Comme dans le test d’égalité de deux moyennes, on posera les hypothèses de normalité et d’indépen-
dance du caractère quantitatif et d’égalité des variances.
La particularité de l’ANOVA, c’est que les p moyennes vont provenir de p échantillons correspondant
chacun à une modalité du caractère qualitatif qui sert à stratifier la population.
On utilise dans l’ANOVA un vocabulaire particulier introduit par les agronômes qui ont été les premiers
à s’intéresser à ce type de problème : la variable qualitative susceptible d’influer sur la distribution de la
variable quantitative étudiée est appelée facteur et ses modalités niveaux.
Essayons d’illustrer sur un exemple la problématique de l’ANOVA à un facteur.

1.1 Le modèle d’Anova 1 à travers l’étude d’un exemple


Un forestier s’intéresse aux hauteurs moyennes de 3 forêts (extrait du livre de Azais & Bardet, 2006).
Pour les estimer, il échantillonne un certain nombre d’arbres et mesure leurs hauteurs. Voici les données
recueillies :
Forêt 1 2 3
23.4 22.5 18.9
24.4 22.9 21.1
24.6 23.7 21.1
24.9 24.0 22.1
25.0 24.0 22.5
26.2 23.5
24.5
Nombre d’arbres n1 = 6 n2 = 5 n3 = 7
Moyenne 24.75 23.42 21.96
A partir de ces données, le forestier souhaite savoir si la hauteur moyenne des arbres est la même dans
les 3 forêts, ou pas.
1 Introduction 1

Ces données peuvent être présentées de deux manières :


1. On dispose de 3 échantillons indépendants et on désire comparer leurs moyennes : c’est l’approche
”comparaison de moyennes”.
2. On dispose d’un seul échantillon de longueur 18 et d’un facteur (le numéro de la forêt), et on étudie
l’effet de ce facteur sur la moyenne : c’est l’approche ”analyse de la variance”.

Essayons de modéliser ces données. En notant Yij la hauteur du j ème arbre de la forêt i et µi la hauteur
moyenne inconnue de la forêt i, on peut envisager le modèle suivant :

i = 1, · · · , 3
Yij = µi + εij avec
j = 1, · · · , ni

où εij représente la variabilité de l’arbre j par rapport à la hauteur moyenne de la forêt i. On fait sur les
variables εij les hypothèses suivantes :
— E [εij ] = 0, pour tout (i, j) ;
— Var [εij ] = σ 2 pour tout (i, j), ie. la variance de la hauteur des arbres est la même dans les 3
forêts ;
— les (εij ) sont indépendantes, ce qui est assuré par la manière dont a été fait l’échantillonnage ;
— les (Yij ) (et donc les εij ) sont des variables gaussiennes.
La question auquelle on souhaite maintenant répondre est :

 Les forêts sont-elles équivalentes (du point de vue la hauteur moyenne des arbres) ?

Ceci se traduit dans le cadre de notre modèle, par le test de l’hypothèse nulle

H0 :  µ1 = µ2 = µ3 

contre l’hypothèse alternative

H1 : µ1 6= µ2 ou µ2 6= µ3 ou µ1 6= µ3 


Un des objectif de ce cours sera de voir comment on met en œuvre un tel test.

1.2 D’autres exemples


Voici deux autres exemples, issus de domaines variés, où les techniques d’ANOVA à un facteur pourront
être utilisées.

Exemple 1. Les candidats à un oral ont été répartis au hasard entre trois examinateurs. Du fait des
absents, le premier examinateur a fait passer l’oral à 6 étudiants, le second à 8 étudiants et le troisième
à 7 étudiants. Voici les notes qu’ils ont attribués :

Examinateur 1 2 3
10 11 8 11 10 13
11 12 11 13 14 14
13 15 14 15 15 16
16 16 16
Nombres de notes 6 8 7
Moyenne 12 13 14
Tableau 1. Notes obtenues à l’oral.
2 Les données et le modèle 2

Un candidat remarque que la moyenne des notes du premier examinateur est de 12, celle du deuxième
de 13 et celle du troisième de 14. Il y a 2 points d’écarts entre la meilleure moyenne qui est de 14, et la
moins bonne qui est de 12.
Avant d’entamer une procédure de recours, il se demande si une telle variation des moyennes observées
peut être due au hasard seul ou si elle est révalatrice d’un réel “effet examinateur” qui influerait sur la
moyenne des notes attribuées. Après tout, les tailles d’échantillons sont bien faibles !

Exemple 2. On souhaite comparer trois traitements contre l’asthme, notés A, B et C : le traitement B


est un nouveau traitement que l’on souhaite mettre en compétition avec les traitements classiques A et
C. On répartit par tirage au sort, les patients venant consulter dans un centre de soin, et on leur affecte
l’un des trois traitements.
On mesure sur chaque patient la durée, en jours, séparant de la prochaine crise d’asthme. Voici les
mesures obtenues :
Traitement A B C
26 27 29 42 44 26 26 30
35 36 44 45 48 30 33 36
38 38 48 52 56 38 38 39
41 42 56 58 58 46 47 51
45 50 60 61 63 51 56 75
65 63 69
Nombres de mesures 11 17 15
Moyenne 40.27 52.70 41.47

Tableau 2. Durée séparant de la prochaine crise d’asthme.

On se pose alors la question suivante : peut-on conclure que les traitements ont une efficacité différente
pour le critère “temps moyen séparant de la prochaine crise” ?

Pour répondre aux questions posées dans ces deux exemples, nous mettrons en œuvre un test statis-
tique dont l’objet sera de tester l’égalité des moyennes de chaque échantillon ou bien encore de voir si
le facteur, dont on étudie l’effet, a un effet sigificatif réel. Pour cela, nous avons besoin, bien entendu,
d’un modèle probabiliste et d’une statistique de test adaptée qui prendra en compte les écarts entre les
moyennes observées.

2 Les données et le modèle


2.1 Les données
On cherche à étudier l’effet d’un facteur A, que l’on supposera à p niveaux, sur une variable quantitative
Y . On suppose que le facteur A influe uniquement sur les moyennes des distributions de chacun des p
groupes et non sur leur variance.
Pour chaque niveau i du facteur A (avec 1 ≤ i ≤ p), on dispose de ni mesures deP Y , notées yij avec
p
j = 1, · · · , ni . Dans la suite, on notera par n le nombre total d’observations, ie. n = i=1 ni .
On présente généralement les données à l’aide du tableau suivant :
2 Les données et le modèle 3

Niveau du Facteur A A1 A2 ... Ai ... Ap


y11 y21 ... yi1 ... yp1
y12 y22 ... yi2 ... yp2
.. .. .. ..
. . . .
y1n1 y2n2 ... yini ... ypnp
Effectifs n1 n2 ... ni ... np
Moyennes
y 1. y 2. ... y i. ... y p.
empiriques
Tableau 4 Les données en ANOVA à 1 facteur.

2.2 Le modèle de l’ANOVA 1


On fait les hypothèses de normalité et d’indépendance suivantes :
1. Pour tout (i, j) ∈ {1, · · · , p}×{1, · · · , ni }, la donnée yij est une réalisation d’une variable aléatoire
Yij de loi N (µi , σ 2 ).
2. Les variables aléatoires (Yij ) sont globalement indépendantes.
On peut résumer ces hypothèses en écrivant le modèle :

iid
Yij = µi + εij avec (εij ) ∼ N (0, σ 2 ). (1)

On décrit l’effet du facteur A en supposant :


• une espérance spécifique µi pour chaque groupe ou chaque niveau du facteur
• et une variance intra-groupe σ 2 commune à tous les groupes.
L’objet de cette étude sera de savoir si, au vu des données du Tableau 4, les moyennes des p échantillons
sont égales ou différentes. Autrement dit, on souhaite savoir si les moyennes empiriques observées (y i. )
diffèrent à cause de différences réelles entre les moyennes (µi ), ou bien si les différences entre les (y i. )
peuvent raisonnablement être attribuées aux seules fluctuations d’échantillonnage.

Remarque. On décompose parfois µi en

p
X
µi = µ + αi avec ni αi = 0 (2)
i=1

où
• µ représente un effet global inconnu du facteur ;
• αi représente l’effet principal (spécifique) inconnu du niveau i du facteur A.
Le modèle s’écrit alors

iid
Yij = µ + αi + εij avec (εij ) ∼ N (0, σ 2 ). (3)
| {z }
µi

Lorsque l’égalité des moyennes ne sera pas retenue, le problème se posera d’estimer, selon le contexte,
soit les (µi ), soit µ et les (αi ).
3 Test de l’effet du facteur 4

2.3 La dimension du modèle de l’ANOVA 1


Définition 2.1 On appellera dimension du modèle dans le contexte de l’ANOVA, la dimension de
l’espace dans lequel vit l’espérance des variables aléatoires (Yij ). Cette dimension est égale
— au nombre de paramètres d’espérance envisagés dans la modélisation
moins
— le nombre de contraintes d’identifiabilité nécessaires (indépendantes) à l’estimation des dits pa-
ramètres.

Remarque. Le modèle de l’ANOVA 1 est de dimension p. On le notera donc (Mp ). On a en effet


• soit p paramètres (les (µi )) et aucune contrainte ; Pp
• soit (p + 1) paramètres (µ et les (αi )) et une contrainte : i=1 ni αi = 0.

3 Test de l’effet du facteur


3.1 Introduction - Comparaison de modèles
On veut savoir si le facteur A influe réellement sur la variable d’intérêt Y . On fait sur les données du
Tableau 4, les hypothèses de normalité et d’indépendance des p échantillons, c’est à dire qu’on suppose
que pour tout couple (i, j), la donnée yij est une réalisation d’une variable aléatoire Yij de loi N (µi , σ) ,
les variables aléatoires Yij étant de plus globalement indépendantes.
Pour tester l’absence d’effet du facteur, on va tester l’hypothèse nulle

H0 : µ1 = . . . = µp 

contre l’alternative
H1 : ∃ (i, j) tq µi 6= µj 

3.2 L’approche comparaison de modèles


L’égalité µ1 = . . . = µp  permet de définir un sous-modèle du modèle complet de l’ANOVA 1. En
notant µ cette moyenne commune, ce sous-modèle s’écrit :
iid
Yij = µ + εij avec (εij ) ∼ N (0, σ 2 )

Ce sous-modèle étant de dimension 1 (un seul paramètre et aucune contrainte), on le notera (M1 ).
Autrement dit, tester l’absence d’effet du facteur A sur Y , c’est tester
iid
H0 :  Modèle (M1 ) : Yij = µ + εij avec (εij ) ∼ N (0, σ 2 )

contre
iid
H1 :  Modèle (Mp ) : Yij = µi + εij avec (εij ) ∼ N (0, σ 2 )

3.3 Estimation des paramètres des deux modèles


3.3.1 Dans le modèle complet (Mp ).
Dans ce modèle, il nous faut estimer les (µi ) et σ 2 :
3 Test de l’effet du facteur 5

ni
1 X
1. On estime µi (pour tout i = 1, · · · , p) par µ
bi = Yij = Y i.
ni j=1

2. On prédit, pour tout (i, j), Yij par Ybij = µbi = Y i.


3. Les résidus (estimations des εij ) sont définis par les εbij = Yij − Y i.
Xp X ni
4. La somme des carrés résiduelle vaut SCR(Mp ) = (Yij − Y i. )2
i=1 j=1
SCR(Mp )
5. Enfin, on estime σ 2 par S 2 =
n−p

3.3.2 Dans le sous-modèle (M1 ).


Dans ce modèle, il nous faut estimer µ et σ 2 :
p ni
1 XX
1. On estime µ par µ b= Yij = Y ..
n i=1 j=1

2. On prédit, pour tout (i, j), Yij par Ybij = µb = Y .. ;


3. Les résidus sont les εbij = Yij − Ybij = Yij − Y ..
p X
X ni
4. La somme des carrés résiduelle vaut SCR(M1 ) = (Yij − Y .. )2
i=1 j=1
SCR(M1 )
5. On estime σ 2 par S 2 =
n−1
Cet estimateur S ne sera un bon estimateur de la variance σ 2 du modèle (Mp ) que lorqu’on aura égalité
2

des (µi ).

3.4 Construction du test


On veut tester, au risque δ, l’hypothèse nulle H0 : µ1 = . . . = µp  contre l’hypothèse alternative
H1 : ∃ (i, j) tq µi 6= µj , ce qui revient à comparer le sous-modèle
iid
(M1 ) : Yij = µ + εij avec (εij ) ∼ N (0, σ 2 )

au modèle complet
iid
(Mp ) : Yij = µi + εij avec (εij ) ∼ N (0, σ 2 )

La construction du test va reposer sur le théorème suivant :

Théorème 3.1 Dans le cadre du modèle complet d’ANOVA 1, on a


p X
ni
X 2
SCR(M1 ) = Ybij (Mp ) − Ybij (M1 ) + SCR(Mp )
i=1 j=1
| {z }
. ..
Y i −Y

et SCR(Mp ) ∼ σ 2
.χ 2
n−p . SCR(M1 ) ∼ σ 2 .χ2n−1 et
De plus sous H0 ,

SCR(M1 ) − SCR(Mp ) /(p − 1)
Z = 
SCR(Mp )/ n − p

suit une loi de Fisher F p − 1 ; n − p .
3 Test de l’effet du facteur 6


Remarque 3.2 Le résultat Z ∼ F p − 1 ; n − p est bien évidemment faux sous H1 , ce qui fait de Z
H0
une statistique de test pour tester H0 contre H1 , ie. (M1 ) contre (Mp ).
SCR(Mp )
Le résultat SCR(Mp ) ∼ σ 2 .χ2n−p entraı̂ne que S 2 = est un estimateur sans biais de σ 2 .
n−p

Construction du test, au risque δ, de H0 : µ1 = . . . = µp  contre H1 :  ∃ (i, j) tq µi 6= µj 

Hypothèses. Celles du modèle complet d’ANOVA 1.


Statistique de test utilisée et loi sous H0 . On utilise la statistique

SCR(M1 ) − SCR(Mp ) /(p − 1)
Z = 
SCR(Mp )/ n − p

qui, sous H0 , suit une loi de Fisher F (p − 1 ; n − p).

Construction de la zone de rejet. On fixe un risque δ et on calcule fp−1,n−p,δ tel que


h i
P F (p − 1 ; n − p) ≤ fp−1,n−p,δ = 1 − δ

La zone de rejet de H0 au risque δ est de la forme : Z > fp−1,n−p,δ .

Stratégie de décision. On calcule la valeur z de Z sur les données (yij )1≤i≤p,1≤j≤ni . On a



scr(M1 ) − scr(Mp ) /(p − 1)
z = 
scr(Mp )/ n − p

et on adopte la stratégie suivante :


— si z ≤ fp−1,n−p,δ alors on accepte H0 au risque δ et on considère qu’il n’y a pas d’effet significatif
du facteur ;
— si z > fp−1,n−p,δ alors on rejette H0 au risque δ et on considère que l’effet du facteur sur Y est
significatif.

3.5 Interprétations du test d’ANOVA.


Remarque 3.3 La statistique de test Z peut se voir comme le rapport de deux estimateurs de σ 2 : un
toujours bon et un qui ne l’est que sous H0 . En effet, notons SCM = SCR(M1 ) − SCR(Mp ). On peut
montrer que (cf. feuille TD 6) :
h SCM i p p
1 X 1X
E = σ2 + ni (µi − µ)2 où µ = ni µi
p−1 p − 1 i=1 n i=1
Pp
La quantité i=1 ni (µi − µ)2 est nulle ssi ∀ i = 1, · · · , p, µi = µ, c’est à dire lorsqu’on a égalité des p
moyennes, ie. lorsque H0 est vraie. On peut donc déduire que sous H0 , SCM / (p − 1) est un estimateur
sans biais de σ 2 .
Ainsi tester l’absence d’effet du facteur A, c’est comparer deux estimateurs de σ 2 :
• un qui n’est bon que sous H0 , celui donné par SCM/(p − 1)
• un qui est toujours bon, celui obtenu dans le modèle (Mp ) et donné par SCR(Mp )/(n − p).
Lorsque H0 est vraie, la valeur de Z doit être comparable à 1, lorsque H0 est fausse, la variable Z doit
prendre de grandes valeurs, ce qui explique la forme de la zone de rejet.
4 Comparaisons multiples de moyennes 7

Remarque 3.4 On peut aussi voir la somme des carrés SCM = SCR(M1 ) − SCR(Mp ) comme une
mesure de la réduction d’erreur, quand on passe du sous-modèle (M1 ) au modèle (Mp ), ie. quand on
ajoute dans le modèle, les effets spécifiques du facteur A à la constante (pas d’effet du facteur).

Remarque 3.5 La statistique Z peut s’interpréter comme le rapport de la variabilité inter-groupe


sur la variabilité intra-groupe. En effet, la quantité
p X
X ni p
X
SCM = (Y i. − Y .. )2 = ni (Y i. − Y .. )2
i=1 j=1 i=1

mesure l’écart des moyennes des groupes à la moyenne générale : c’est une mesure de variabilité entre les
groupes. La quantité SCR(Mp ), quant à elle, mesure l’écart de chaque individu à la moyenne du groupe
auquel il appartient : c’est une mesure de variabilité à l’intérieur de chaque groupe. Sous H0 , la variabilité
inter-groupe est comparable à la variabilité intra-groupe, sous H1 , elle est d’autant plus grande que les
(µi ) sont différentes.

3.6 Table de l’Anova 1.


On présente généralement les résultats sous la forme d’une table d’analyse de la variance :

Source Somme Degrés de Statistique


de variation de carrés liberté (ddl) de Test
SCM
p X
ni
Facteur A X (p − 1)
SCM = (Y i. − Y .. )2 p−1 Z=
(inter-groupe) SCR(Mp )
i=1 j=1
(n − p)
p X
ni
Résiduelle X
SCR(Mp ) = (Yij − Y i. )2 n−p
(intra-groupe)
i=1 j=1
Xp X ni
Totale SCR(M1 ) = (Yij − Y .. )2 n−1
i=1 j=1

Exercice E.1 Reprendre les différents exemples et dire au risque 5% si il y a un effet significatif dû
au facteur.

4 Comparaisons multiples de moyennes


Le rejet de l’hypothèse nulle H0 : µ1 = . . . = µp  ne signifie pas que toutes les moyennes (µi )
sont différentes. Lorsque l’effet du facteur est significatif, on désire parfois pousser plus loin l’analyse en
classant les différentes moyennes ou bien en les comparant à un témoin.
On peut aussi chercher à comparer deux moyennes choisies a priori, par exemple µ1 et µ2 : on testera
alors H0 : µ1 = µ2  contre H1 : µ1 6= µ2 , ce qui est équivalent à tester H0 : µ1 − µ2 = 0 contre
H1 : µ1 − µ2 6= 0. Plus généralement, on peut chercher à tester l’égalité à 0 de contrastes entre les
paramètres (µi ).

Définition 4.1 Un contraste entre les paramètres (µi )i=1,··· ,p est une combinaison linéaire des (µi ) de
Xp p
X
la forme ci µi où les (ci ) sont des coefficients réels constants vérifiant la condition ci = 0 .
i=1 i=1
4 Comparaisons multiples de moyennes 8

Exemple. Les quantités (µ1 − µ2 ), (µ1 − µ3 ) et µ2 − 12 (µ1 + µ3 ) sont des contrastes.

Pour un contraste donné ψ, nous allons tester l’hypothèse nulle


p
X
H0 :  ψ = ci µi = 0 
i=1

contre l’hypothèse alternative


p
X
H1 :  ψ = ci µi 6= 0 
i=1
p
X p
X
Soit ψb = ci Y i. l’estimateur sans biais du contraste ci µi . On a alors le théorème suivant.
i=1 i=1

Théorème 4.2 Dans la cadre du modèle complet d’ANOVA 1 et sous H0 ,

p
X
ci Y i.
i=1
Z = v
u p
! ∼ Tn−p
u SCR(Mp )
t
X c2i
n−p i=1
ni

Remarque. Sous H1 , la variable aléatoire Z ne suit plus une loi de Student Tn−p , ce qui fait de Z une
statistique de test. Notons de plus que ce résultat est vrai quelque soit le contraste considéré.
 v 
p p u p
X X u X c2
i 
Exercice E.2 Démontrer que ci Y i. ∼ N  ci µi , σ t .
i=1 i=1 i=1
n i

Preuve du théorème. Du résultat de l’exercice précédent et enPutilisant le fait que SCR(Mp )/σ 2 suit
p
une loi du khi-deux à (n−p) degrés de liberté et que SCR(Mp ) et i=1 ci Y i. sont des variables aléatoires
indépendantes (voir la remarque ci-dessous), on déduit ”en studentisant” que
p
X p
X
ci Y i. − ci µi
i=1 i=1
v
u p
! ∼ Tn−p
u SCR(Mp )
t
X c2i
n−p i=1
ni
Pp
On conclut à la preuve du théorème en remarquant que i=1 ci µi = 0 sous l’hypothèse H0 .

Remarque 4.3 Puisque les variables aléatoires (Yij ) sont globalement indépendantes, on en déduit
que les paquets de variables aléatoires (Yi1 , . . . , Yini )1≤i≤p sont aussi indépendants. Par suite, les va-
riables aléatoires (Y i. ) sont indépendantes, puisque construites à partir de paquetsdisjoints de variables
Pni 2 
aléatoires globalement indépendantes. Il en va de même pour les variables aléatoires i=1 Yij − Y i. .
Pni 2
Enfin, puisque pour tout i, les variables Y i. et i=1 Yij − Y i. sont indépendantes, on en déduit que
Pp
les variables SCR(Mp ) et i=1 ci Y i. le sont aussi.
5 Robustesse aux hypothèses 9

4.1 Test au risque δ de H0 : ψ = 0 contre H1 : ψ 6= 0

Hypothèses. Cadre du modèle complet d’ANOVA 1.

Statistique de test utilisée et loi sous H0 . On utilise la statistique de test


p
X
ci Y i.
i=1
Z = v
p
u !
u SCR(Mp )
t
X c2i
n−p i=1
ni

qui suit sous H0 une loi de Student Tn−p .

Construction de la zone de rejet. On fixe un risque δ et on calcule tn−p,δ/2 tel que


h i
P |Tn−p | < tn−p,δ/2 = 1 − δ

La zone de rejet de H0 au risque δ est alors de la forme : |Z| > tn−p,δ/2 .

Stratégie de décision. On calcule la valeur z de Z sur les données (yij )1≤i≤p,1≤j≤ni . On a


v
p .u p
X u scr(Mp ) X c2i
z = ci y i. t
i=1
n − p i=1 ni

et on adopte la stratégie suivante : si |z| ≤ tn−p,δ/2 alors on accepte H0 au risque δ et on considère que
le contraste ψ est nul, sinon (ie. |z| > tn−p,δ/2 ) alors on rejette H0 au risque δ et on considère que le
contraste ψ est différent de 0.

5 Robustesse aux hypothèses


La méthodologie de l’Anova 1 est plus ou moins robuste au non respect des hypothèses de modélisation,
à savoir la normalité, l’homoscédasticité et l’indépendance des erreurs.
On peut dire que :
1. la méthodologie est robuste à la non normalité des échantillons.
2. la non homogénéité des variances peut être contournée.
3. le plus grave est bien sûr le non respect de l’indépendance des erreurs, il faut alors avoir recours à
d’autres modèles que celui de l’Anova 1.
Une analyse des résidus devrait être effectuée avant toute utilisation du modèle pour essayer de le
valider, en vérifiant de manière descriptive ou par des tests adéquats les hypothèses du modèle.
Par exemple, on peut tester l’homogénéité des variances, c’est à dire tester H0 : σ12 = . . . = σp2  contre
H1 : ∃(i, j), σi2 6= σj2  où σi2 désigne la variance de l’échantillon i, à l’aide du test de Bartlett mais qui
est sensible à la non normalité ou bien à l’aide du test de Cochran, qui est robuste à la non normalité
mais qui ne s’applique que lorsque les p échantillons ont la même taille
Lorsque l’égalité des variances n’est pas vérifiée, on peut utiliser le test non paramétrique de Kruskal-
Wallis pour savoir si les distributions des p échantillons sont identiques ou pas.
6 Test de comparaison de p variances 10

6 Test de comparaison de p variances


L’homogénéité des variances entre groupes est cruciale en analyse de la variance, mais n’est que
rarement testée. Elle peut cependant être testée de différentes manières. La solution la plus simple serait
d’effectuer les p(p − 1)/2 comparaisons 2 à 2 des variances de tous les groupes grâce au test classique
d’égalité des variances de deux échantillons gaussiens en testant pour tout couple (i, j) l’hypothèse H0 :
2 2 2 2

i = σj  contre l’alternative H1 : σi 6= σj . Mais on est alors confronté au problème des tests
multiples : si l’on choisit d’effectuer chaque test à un niveau de 5%, on ne peut rien garantir sur le
niveau global après avoir effectué les p(p − 1)/2 tests. Il existe d’autres procédures de tests (plus ou moins
robustes aux hypothèses de modélisation sous-jacentes) permettant de tester globalement l’égalité des
variances telles que le test de Bartlett (sensible à la non normalité) ou le test de Levene ou bien encore
le test de Cochran. On présente dans ce qui suit le test de Bartlett.
On fait les hypothèses de normalité et d’indépendance des p échantillons, c’est à dire qu’on suppose
que les données (yij ) sont les réalisations de variables aléatoires (Yij ) de loi N (µi , σi ), les variables (Yij )
étant globalement indépendantes. On pose l’hypothèse nulle

H0 :  σ12 = σ22 = . . . = σp2 

que l’on veut tester contre l’hypothèse alternative

H1 :  ∃ i , j ∈ {1, . . . , p} , σi2 6= σj2 

Notons (Si2 ) les estimateurs sans biais des variances (σi2 ) des p échantillons. On rappelle que
ni
1 X 2
∀ i ∈ {1, . . . , p} , Si2 = Yij − Y i.
ni − 1 j=1

p
X
et par conséquent, on peut réécrire SCR(Mp ) sous la forme SCR(Mp ) = (ni − 1) Si2 .
i=1
Sous l’hypothèse H0 , on montre que la statistique

  p p
2.3026 h SCR(Mp ) X i 1 hX 1 1 i
(n − p) ln − (ni − 1) ln Si2 avec C = 1 + −
C n−p i=1
3(p − 1) i=1 ni − 1 p−1

suit approximativement un χ2 à (p − 1) degrés de liberté. Bien entendu, sous H1 , cette variable aléatoire
ne suit plus un χ2 (p − 1). Ce résultat est donc suffisant pour construire un test de H0 contre H1 .

Exercice E.3 Reprendre les exemples 1, 2 et 3 et tester au risque 5% l’égalité des variances.

7 Estimation des effets


On veut construire des estimateurs sans biais des effets, c’est à dire construire des estimateurs des
paramètres inconnus µ1 , µ2 , . . . , µp , ou bien µ et α1 , α2 , . . . , αp selon le contexte.

7.1 Estimation des paramètres µ1 , µ2 , . . . , µp


On utilise les résultats d’estimation bien connus dans le cadre d’un échantillon gaussien.
7 Estimation des effets 11

Théorème 7.1 Sous les hypothèses de normalité et d’indépendance des p échantillons, pour tout i ∈
{1, . . . , p}, Y i. est un estimateur sans biais du paramètre µi et
 
σi
Y i. ∼ N µi , √
ni
ni
1 X 2
De plus, Si2 = Yij − Y i. est un estimateur sans biais de σi2 , indépendant de Y i. , et on a
ni − 1 j=1

(ni − 1) 2
σi2
Si ∼ χ2n −1
i

Conséquence. Il est possible de bâtir des intervalles de confiance pour les paramètres (µi ). En effet, on
déduit du théorème précédent que

ni Y i. − µi

∼ T ni −1
Si
et par suite l’intervalle de confiance au niveau de confiance (1 − δ) de µi est :
h si tni −1,δ/2 i
IC(1−δ) (µi ) = y i. ± √ ,
ni
h i
où si est la réalisation de Si sur les données et tni −1,δ/2 est tel que P |Tni −1 | < tni −1,δ/2 = 1 − δ.

7.2 Estimation des paramètres µ et α1 , α2 , . . . , αp


Comme on l’a vu dans le paragraphe précédent, les paramètres (µi ) sont facilement estimables par les
(Y i. ). En revanche, les (αi ) et µ ne le sont pas directement car il existe une ambigüité pour les définir.
En effet, les (µ + αi ) peuvent s’obtenir d’une infinité de manière.
Pour remédier à cela, on introduit une contrainte qui est généralement la suivante : on suppose que
Xp
l’effet moyen est nul, c’est à dire que ni αi = 0 .
i=1
On a alors les résultats suivants.

Théorème P
7.2 Sous les hypothèses de normalité et d’indépendance des p échantillons et sous la
p
contrainte i=1 ni αi = 0,
– Y .. est un estimateur sans biais du paramètre µ ;
– pour tout i ∈ {1, . . . , p}, Y i. − Y .. est un estimateur sans biais du paramètre αi .


Vous aimerez peut-être aussi