Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Analyses de Variance - Anova

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 13

Optimisé il y a 1 minute Afficher

http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html l'original

Introduction aux Statistiques

Citation :
Introduction aux statistiques - © 1996, Ramousse R., Le Berre M. & Le Guelte L.

5.3. Comparaisons de plusieurs échantillons; les


ANALYSES DE VARIANCE ou ANOVA
5. 3. 1. Définition et démarche générale

Les analyses de variance ou analyses factorielles sont des techniques permettant de


savoir si une ou plusieurs variables dépendantes (appelées aussi variables
endogènes ou variables à expliquer) (valeurs numériques et continues [c-à-d des
effectifs, des rapports comme des longueurs ou des poids, etc..] = disposées dans
différentes lignes d’un tableau) sont en relation avec une ou plusieurs variables dites
indépendantes (ou variables exogènes ou variables explicatives) (disposées dans
différentes colonnes d’un tableau).

Rappel : qu’est-ce que la variance :

C’est la somme des carrés des écarts par rapport à la moyenne / nombre de degrés
de liberté = SCE/ddl (ceci lorsque le nombre d’individus composant l’échantillon est
réduit ; sinon, utiliser N’=N). La variance est le carré de l’écart-type.

La variance d’un échantillon peut se calculer manuellement, ou à l’aide d’Excel, ou


avec Statview II.

Quatre situations principales peuvent être rencontrées, cependant, nous ne


développerons que la première :

•Avec une seule variable dépendante (à expliquer), et une ou plusieurs variables


explicatives discrètes (dites aussi catégorielles, qualitatives, nominales, de
classification = ne pouvant donc prendre qu'un nombre limité de valeurs comme le
sexe, la catégorie socio-professionnelle, etc...) on utilise l'analyse de variance. On
appelle facteurs les variables explicatives. L'analyse consiste à tester si les
différences de variation dans chaque groupe (ou échantillon) défini par les modalités
des variables explicatives s'écartent de manière significative de la valeur 0.

•Avec toujours une seule variable à expliquer, mais une ou plusieurs variables
explicatives, toutes continues, on fait appel au modèle de régression linéaire simple
ou multiple : on appelle régresseurs les variables explicatives. La régression consiste
à évaluer les paramètres d'une fonction linéaire, à estimer à l'aide de cette fonction
les valeurs de la variable à expliquer et à tester si les différences (= les résidus) entre
valeurs mesurées et valeurs estimées s'écartent de manière significative de 0.

•Lorsque certaines des variables explicatives sont discrètes (discontinues), et


d'autres continues, on réalise une analyse de la covariance. Le modèle se compose
donc à la fois de facteurs et de régresseurs. On cherche si les relations entre la
variable à expliquer et les variables explicatives continues restent les mêmes pour
toutes les modalités des variables explicatives discrètes.

•Lorsqu'il y a plusieurs variables à expliquer à prendre en compte simultanément, au


lieu de faire plusieurs analyses de variance (une par variable à expliquer), on réalise
une analyse de variance multiple. On teste si les différences de variation dans chaque
groupe défini par les modalités des variables explicatives s'écartent de manière
significative de la valeur 0, et cela de manière simultanée dans l'ensemble des
variables explicatives (d'où la différence avec l'analyse de variance simple).

5.3.2. Vérification de la normalité des échantillons

Seuls des échantillons suivant une loi normale peuvent faire l’objet d’une analyse de
variance paramétrique. Pour vérifier que la distribution d’un échantillon suit une loi
normale, il est possible d’utiliser, dans Statview II, le test descriptif d’aplatissement et
d’asymétrie (de kurtosis and skewness, en anglais).

On considère que l’échantillon suit une loi normale à 95 % lorsque la valeur de son
aplatissement est compris enttre -2 et +2.

 
5.3.3. Homoscédascticité des variances par le test de Hartley

On calcule les différentes variances pour chacun des échantillons à comparer, et on


fait le rapport de la plus grande sur la plus petite, ce rapport est F.

Cette valeur est comparée, dans une table de Hartley (ou du Fmax), à une valeur
théorique et doit lui être inférieure pour un seuil de risque choisi (par exemple, 95 %)
pour conserver l'hypothèse d'homogénéité des variances.

Les d.d.l. sont, pour la colonne de la table du Fmax, le nombre de traitements (=k)
(colonnes de données), et pour la ligne de la table, le nombre de données du plus
grand échantillon - 1 (=n-1).

5.3.4. Analyse de variance à un facteur pour échantillons


indépendants.

 L'hypothèse nulle H0 est l'égalité des moyennes des populations dont sont extraits
les échantillons : m1=m2=m3=...=mk

 5.3.4.1. Principe

Notation : Le nombre d'échantillons est noté k, le nombre de mesures par échantillon


est désigné par n et le nombre total de mesures, kn.

L'analyse de variance à un facteur (one-way analysis of variance) va consister à


chercher le rapport entre la variance entre les groupes (V. inter-groupe) et la variance
à l'intérieur des groupes (V. intra-groupe).

La valeur de ce rapport appelé F [attention : ce F n’a rien a voir avec le F du test de


vérification de l’homogénéité des variances] est comparée à celle d'une table de F de
Snedecor, table à double entrée avec pour numérateur le [nombre d'échantillons (k)
moins un] soit (k-1) et pour dénominateur le [nombre total de mesures - k] soit (kn-k).

 
1. Manuellement, on calcule :

a) la variance totale par rapport à la moyenne globale des n mesures ;

b) la variance intra-groupes (celle qui n'est pas liée aux conditions


expérimentales).

2. Par différence [a-b] on obtient la variance inter-groupes (qui est liée aux
différences de conditions expérimentales).
a = [a-b] + b
Variance totale = Variance inter-groupe + Variance intra-groupe
[SCE à la moyenne générale] = [SCE factorielle] + [SCE résiduelle]

3. On calcule le rapport :

F = variance inter-groupes/variance intra-groupes ou résidu.

[attention : ce F n’a rien à voir avec le F du test de vérification de l’homogénéité des


variances]

Notation :

Le terme "traitement" peut être remplacé par "variable expérimentale" ou "condition


expérimentale" ou quoi que ce soit qui différencie les groupes (colonnes). De même,
le terme "individu" peut concerner différentes entités : des points de prise
d'échantillons le long d'une rivière, des êtres vivants, etc (lignes) ...

traitement 1 traitement j traitement k

... ... ...

... ... ...

Calculs intermédiaires à réaliser pour un traitement manuel (ou avec un tableur) :

Ti Tj Tk G totaux
somme des carrés

moyennes

(1) (2) (3)

Décomposition de l'analyse de variance :


SCE traitements (3)-(1) ddl : k-1
-

SCE erreur (2)-(3) ddl : kn-k


-

SCE total (2)-(1) - ddl : kn-1

5.3.4.2. Exemple 1

5.3.4.2.1. Sujet et solution manuelle

On veut savoir si la quantité de nitrates varie d'une station à l'autre le long d'une
rivière. Pour cela, on prélève en 10 points (n=10) chaque fois une certaine quantité
d'eau dans 3 stations différentes (k=3).

Nitrates Station 1 Station 2 Station 3


50,00 162,00 120,00
52,00 350,00 120,00 n
123,00 125,00 122,00 10
100,00 320,00 221,00
200,00 112,00 253,00
250,00 200,00 141,00
220,00 40,00 182,00 k
220,00 162,00 175,00 3
300,00 160,00 160,00
220,00 250,00 214,00
T1 T2 T3 total : G
sommes 1735,00 1881,00 1708,00 5324,00
moyennes 173,50 188,10 170,80 177,47
S (x2) 368033,00 +435257,00 +311560,00 = 1114850,00

Somme des carrés des écarts (SCE) entre traitements (inter-groupe) = ou = 1732,47
(S(moyTj-moyX)2)*n
Sommes des carrés des écarts (SCE) expérimentales (erreur exp) ou résidu (intra-
total
groupe) = - ou = S(S(X-moyT)2)
erreur = 67010,50 81440,90 19833,60 168285,00

170017,47
Somme totale des carrés des écarts = - ou S(X-moyX)2

D’où :

Variance inter-groupes = SCE inter-groupes/ddl = 1732,47/2 = 866,23

Variance intra-groupes = SCE intra-groupes/ddl = 168285/27 = 6232,78

Calcul de F = Variance inter-groupes / Variance intra-groupes = 0,14

 
5.3.4.2.2. Utilisation de Statiew II

Les échantillons à comparer étant indépendants, on disposera l’ensemble des


mesures dans une seule colonne (Y1) et les numéros des échantillons des individus
dans une seconde colonne (X1).

Conclusion du test statistique : La valeur de P étant largement supérieure au seuil de


signification 0,05, on conserve donc l’hypothèse nulle (pas de différence significative
entre les échantillons).

Conclusion de l’expérience : pour cette série de mesures, on peut donc conclure que les
taux de nitrates des trois stations ne diffèrent pas significativement ou que ces 3
stations ne diffèrent pas significativement par leur taux de nitrates avec une seuil de
signification (risque d’erreur) de 5%.

5.3.4.3. Autre exemple

On dispose de k=3 échantillons comprenant n=5 individus dont les valeurs sont
données dans le tableau ci-après : il s’agit des différences de temps de réaction pour
trois souches de souris soumises à une même expérience.

Souche 1 Souche 2 Souche 3


7 3 0
6 3 0
6 3 1
5 4 1
5 5 2

Analyse de la variance (Statview II)

Source : DDL S. des carrés Carré moyen : Test-F


Entre groupes 2 62,8 31,4 42,8182
Intra-groupes 12 8,8 ,7333 p=,0001
Total 14 71,6    

Estimation de la variance entre composants = 6,1333


Dans cet exemple, la valeur de F(2,12) est très supérieure au seuil de signification de
1% : 6,93. La probabilité exacte calculée est de 0,0001.

L’hypothèse nulle est donc rejetée. On considère que les 3 échantillons diffèrent
significativement (la probabilité de se tromper est de 0,0001).

Groupe Fréquence Moyenne Déviation standard Erreur standard


Groupe 1 5 5,8 ,8367 ,3742
Groupe 2 5 3,6 ,8944 ,4
Groupe 3 5 ,8 ,8367 ,3742

N.B. : Déviation standard = écart-type = racine carrée de la variance. Erreur standard =


erreur type = écart-type/Racine carrée de n

Comparaison Diff. moyenne PLSD de Fischer F de Scheffé t de Dunnett


Groupe 1 vs Groupe 2 2,2 1,1802* 8,25* 4,062
Groupe 1 vs Groupe 3 5 1,1802* 42,6136* 9,2319
Groupe 2 vs Groupe 3 2,8 1,1802* 13,3636* 5,1698

* significatif à 95%

La significativité des tests PLSD de Fischer et F de Scheffé permet de considérer qu’il


y a une différence significative entre les souches 1, 2 et 3 de souris testées.

Ces trois souches réagissent donc de façon significativement différentes au


traitement : le groupe 3 présente des temps de réaction significativement plus courts
que les deux autres groupes. Le groupe 1 est le plus lent.

5.3.5. ANOVA avec mesures répétées sur les mêmes individus

Cette situation correspond aux échantillons appariés des tests pour deux
échantillons.

5.3.5.1. Décomposition de la variance

individu traitement 1 traitement j traitement k total moyenne


1 P1 moyP1
2 P2 moyP2
... ... ... ... ... ...
i Pi moyPi
... ... ... ... ... ...
n Pn moyPn
total T1 Tj Tk G moyPn
moy moy T1 moy Tj moy Tk   moyG

Calculs à réaliser dans le cas d’un traitement manuel (ou avec un tableur) :

(1)? ? (2)? ?(3)? ?(4)?

Décomposition de l'analyse de variance :

SCE inter-individus = (4)-(1) = ddl : n-1


-

SCE intra-individus = (2)-(4) = ddl : n(k-1)


-

SCE inter-traitements = (3)-(1) = ddl : k-1


-

SCE résidu (ou intra-t)= (2)-(3)-(4)+(1) = ddl : (n-1)(k-1)


- - +

SCE total = (2)-(1) = ddl : kn-1


-

5.3.5.2.. Exemple 1

5.3.5.2.1. Sujet et solution manuelle

Pour simplifier, on reprend les valeurs de l’exemple précédent (§3.2.), en considérant


qu'elles correspondent cette fois à la quantité de nitrates mesurée aux mêmes points
de prélèvements, au cours de 3 saisons, dans une station le long d'une rivière.

X1 X2 X3 total
50,00 162,00 120,00 332,00
52,00 350,00 120,00 522,00
123,00 125,00 122,00 370,00
100,00 320,00 221,00 641,00
200,00 112,00 253,00 565,00
250,00 200,00 141,00 591,00 n
220,00 40,00 182,00 442,00 10
220,00 162,00 175,00 557,00 k
300,00 160,00 160,00 620,00 3,00
220,00 250,00 214,00 684,00 total=G
total 1735,00 1881,00 1708,00 5324,00 5324,00

944832,53
(1)=

(2)= 1114850

1735^2/n+1881^2/n+1708^2/n 946565,00
(3)=

332^2/k+522^2/k+...684^2/k 985621,33
(4)=
Somme carrés totale ou =S(Xij-moyX)2
(2)-(1) 170017,47
se décompose en :
Somme carrés inter-individus ou
(4)-(1) 40788,80
= k*(S(Pi/k-moyX)2)

et somme carrés intra-individus ou


(2)-(4) 129228,67
=S(Xij-Pi/k)2

Cette dernière se décompose en 2 parties :


(3)-(1) 1732,47
somme carrés inter-traitements ou =n*(_(moyTj-moyX)2)
et somme résiduelle des carrés ou
(2)-(3)-(4)+
127496,20
=somme carrés totale - somme carrés interindividus - somme carrés (1)
intertraitements

5.3.5.2.2. Utilisation de Statview II

Présentation des données : les échantillons étant appariés (mesures répétées), les
valeurs mesurées sont placées dans des colonnes différentes affectées des variables
X1, X2, X3, Xn.

Conclusion du test statistique : La valeur de P étant largement supérieure au seuil de


signification 0,05, on conserve donc l’hypothèse nulle (pas de différence significative
entre les mesures répétées).

Conclusion de l’expérience : pour cette série de mesures, on peut donc conclure que les
taux de nitrates des trois séries de mesures ne diffèrent pas significativement ou que
cette station ne présente pas de variation significative du taux de nitrates, au cours
des trois saisons de mesure, avec un seuil de signification (risque d’erreur) de 5 %.

5.3.5.2.3. Autre exemple numérique

On étudie l’influence d’une substance sur le temps de réaction de n=5 sujets


préalablement entraînés à répondre à un stimulus. L’ordre selon lequel chaque
substance est administrée à chaque sujet est déterminé de manière aléatoire. Une
durée suffisante est observée entre l’administration de deux substances différentes.
Les résultats obtenus sont des temps de réaction sous l’influence de chacune des
k=4 substances testées.
n Substance 1 Substance 2 Substance 3 Substance 4 Total
individu 1 30 28 16 34  
individu 2 14 18 10 22  
individu 3 24 20 18 30  
individu 4 38 34 20 44  
individu 5 26 28 14 30  

Source: ddl : S. des carrés Carré moyen Test-F Valeur P


Inter-individus 4 680,8 170,2 3,148 ,0458
Intra-individus 15 811 54,0667    
Facteur répété 3 698,2 232,7333 24,7589 ,0001
Résidus 12 112,8 9,4    
Total 19 1491,8      

Fiabilité pour : toutes les séries = 0,6823 ; une seule série = 0,3494

Groupe Fréquence Moyenne Déviation stand erreur stand


Colonne 1 5 26,4 8,7636 3,9192
Colonne 2 5 25,6 6,5422 2,9257
Colonne 3 5 14,6 3,8471 1,7205
Colonne 4 5 32 8 3,5777

Comparaison Diff. moyenne PLSD de Fischer F de Scheffé t de Dunnett


Col. 1 vs col. 2 ,8 4,225 ,057 ,413
Col. 1 vs col.3 10,8 4,225* 10,34* 5,57
Col. 1 vs col. 4 -5,6 4,225* 2,78 2,888
Col. 2 vs col. 3 10 4,225* 8,865* 5,157
Col. 2 vs col. 4 -6,4 4,225* 3,631* 3,301
Col.3 vs col. 4 -16,4 4,255* 23,884* 8,458

* significatif à 95%

Ce tableau permet de compléter l’ANOVA en comparant les moyennes des groupes


(colonnes) deux à deux. Les tests proposés par Staview sont : le PLSD de Fischer, le F
de Scheffé et le t de Dunnett.

Le PLSD de Fischer (Procédure de "least significant difference method" de Fisher) est


utilisé pour tester l’hypothèse nulle que toutes les moyennes de la population sont
égales. C’est une méthode pour contrôler les erreurs de type 1 lorsque l’on compare
plusieurs paires de moyennes. Lorsque les résultats de l’ANOVA sont significatifs, on
peut comparer les moyennes des groupes 2 à 2 en utilisant un test de t.

Le F de Scheffé permet de déterminer si, après une ANOVA significative, les


moyennes de 2 des groupes de la variable indépendante diffèrent. Le test de Scheffé
ne demande pas que tous les échantillons utilisés dans l’ANOVA aient la même taille.
Le test de Tukey, lui, nécessiterait des échantillons de même taille. Ce test très
conservatif ne devrait être utilisé que quand tous les échantillons de l’ANOVA ont des
tailles différentes.

L'intervalle de Scheffé associe l'erreur d'estimation pour chaque moyenne en utilisant


la méthode de F-distribution. Cela permet de faire des comparaisons linéaires parmi
les moyennes de l'échantillon tout en contrôlant le taux d'erreur ("experiment wide error
rate") à un niveau défini.

Le test de Dunnett est un test spécialisé pour la comparaison multiple. Le test de


Dunnett est employé quand les comparaisons ne sont faites qu’avec le groupe témoin
contre tous les autres groupes.

Autres tests de comparaison de moyennes non disponibles dans Statview II :

Le HSD (honestly significant difference) intervals de Tukey : La technique du HSD de


Tukey permet de comparer toutes les paires de moyennes et d'y montrer des
différences avec un risque alpha. La technique du HSD permet de spécifier un "family
confidence level" pour les comparaisons que vous entreprenez, au contraire de la
méthode du LSD qui contrôle le niveau d’erreur pour une seule comparaison.
L'intervalle du HSD est plus large que celui du LSD, ce qui rend plus difficile de
déclarer qu'une paire de moyennes diffère significativement. Le test HSD est de ce
fait plus conservatif.

La procédure de Newman-Keuls: C'est une procédure de comparaisons multiple qui


permet de comparer toutes les paires de moyennes en contrôlant le risque alpha
global, à un niveau défini. C'est une procédure par étape, reposant sur une Studentized
range distribution. Bien qu'il ne fournisse pas d'estimation de l'intervalle de différence
entre chaque paire de moyennes, il indique quelles moyennes sont significativement
différentes des autres.

Les intervalles de Bonferroni : permettent de comparer plusieurs moyennes. Cette


méthode s'applique que la taille des groupes soit la même ou non. Utilisant la F-
distribution, il génère des intervalles qui permettent de faire un nombre défini de
comparaisons linéaires parmi les moyennes de l’échantillon (sample means) tout en
contrôlant le taux d’erreur expérimental à un niveau défini (specified level). Dans les
procédures des STATLETS ANOVA, le nombre de comparaisons est défini pour vous
permettre de comparer les différences entre toutes les paires de moyennes.

Procédure de Duncan : c’est une procédure de comparaisons multiples qui permet de


comparer toutes les paires de moyennes, en contrôlant le risque alpha général à un
niveau défini. C’est une procédure par étape, reposant sur une Studentized range
distribution. Bien qu’elle ne fournisse pas d’estimation d’intervalles pour la différence
entre chaque palier de moyennes, cette procédure indique quelles moyennes sont
significativement différentes les unes des autres.

5.3.6. Remarque importante

Les calculs d'analyse de la variance comme, d'ailleurs, l'emploi du test t de Student-


Fisher ou du test F de Snédécor ne sont strictement valables que si les populations
échantillonnées sont distribuées selon la loi de Laplace-Gauss (plutôt que
" normalement ").

Or, le plus souvent, cette condition n'est qu'approximativement réalisée : la


distribution de Laplace-Gauss n'est qu'un modèle théorique, et revêt, par rapport aux
distributions réelles, le même degré d'abstraction que les figures géométriques par
rapport aux objets réels.

Ainsi, la distribution des prix d'un produit présente, en général, une certaine asymétrie
(vers la gauche); mais elle est suffisamment faible pour que cette distribution puisse
être considérée, en première approximation, comme normale.

On s'exposerait, au contraire, à des erreurs grossières en étendant ces tests à des


données (salaires, tailles des entreprises) dont la distribution est fortement
asymétrique.

Cependant, de nombreuses études ont montré que l'analyse de variance est peu
sensible à la non-normalité des populations-parents et à l'inégalité des variances. Il
suffit en pratique d'éviter son emploi lorsque les distributions des populations-
parents sont très différentes (distributions en i ou en j par exemple ou sont de forme
très différente de l'une à l'autre (en cloches à dissymétries de sens opposés par
exemple) surtout sur de petits échantillons. Il est souvent difficile de contrôler la
validité des hypothèses de normalité et d'égalité des variances (données peu
nombreuses) ; Il est souvent préférable de tenir compte de l'ensemble des
informations dont on dispose a priori au sujet des catégories de variables. De même
l'hypothèse d'égalité des variances est secondaire lorsque les effectifs sont égaux.
Quand les différentes conditions ne sont pas satisfaites, on peut essayer de s'en
rapprocher en essayant de normaliser ces données en leur substituant une variable
auxiliaire (par exemple : log de X). Si cette façon de faire ne donne pas satisfaction,
on utilisera les tests non-paramétriques.
 

5.3.7. Annexe

Vocabulaire de l’ANOVA
Ligne Colonnes
Variables dépendantes Variables indépendantes
Variables à expliquer Variables explicatives
Variables catégorielles, variables
Variable expérimentale, condition expérimentale,
qualitatives, variables nominales, variables
traitement
de classification
Variables endogènes Variables exogènes
Individus échantillons, Groupes, Traitements
Résidus Facteurs
Une seule variable Plusieurs colonnes
Variance intra-groupe (concerne la variation Variance inter-groupe (concerne la variation
induite par les différents individus induite par les différents échantillons =
constituant un groupe = colonne) = variance comparaison des effets des colonnes) = variance
résiduelle inter-traitement
n = nombre d’individus dans un échantillon k = nombre d’échantillons à comparer
SCE résiduelle SCE factorielle

Vous aimerez peut-être aussi