Statistic Project
Statistic Project
Statistic Project
ll)Test Parametrique:
1)Qu est ce qu un test parametrique ?
a)Definition,avantage,inconvenient et utilité
Un test paramètrique est un test statistique qui se base sur les paramètres d’une
population en suivant un type de loi de distribution connu (en général la loi
normale).Autrement dit ,ce test est utilisé si on a des informations par rapport
aux paramètres de la population mère et les variables etudiés sont d’ordre mètrique
ou mésurable(intervalle). Certaines conditions de validité doivent être
vérifiées pour que le résultat d’un test paramétrique soit fiable. Par
exemple, le test t de Student pour échantillons indépendants n’est fiable
que si les données associées à chaque échantillon suivent une distribution
normale et si les variances des échantillons sont homogènes.Ces tests sont
en général très fins, mais ils nécessitent que les données suivent
effectivement la loi de distribution supposée. Ils sont en particulier très
sensibles aux valeurs aberrantes et ne sont pas conseillés si des valeurs
aberrantes sont détectée . Les tests paramétriques sont généralement plus
puissants que les tests non paramétriques lorsque les hypothèses sont
satisfaites, mais peuvent être moins robustes lorsque ces hypothèses sont
violées.
OBJECTIVE :
NB : Pour utiliser ces tests ci-dessus ,les donnés doivent suivre un type de
loi de distribution connue.Par exemple : Si vous souhaitez comparer la
moyenne des notes en mathematiques d une classe a la moyenne du
pays,vous allez utiliser un test parametrique sachant que les donnés
suivent une distribution normale.
A) Test t :
1) Definition,difference avec distribution normale,tableau de valeur
critique.
Le test T est une statistique inférentielle utilisée pour évaluer les
différences entre les moyennes de deux groupes. Le test T est
généralement utilisé lorsque les ensembles de données suivent une
distribution normale et peuvent avoir des variances inconnues. Le test t,
également appelé test de Student ou distribution t, est un
test statistique populaire servant à mesurer les différences
entre les moyennes de deux groupes ou d’un groupe par
rapport à une valeur standard. Il est basé sur une loi de
probabilité appelée loi de Student. L’exécution de ce test
sert à comprendre si les différences sont statistiquement
significatives, c’est-à-dire si elles ne sont pas le fruit du
hasard.
La forme de la distribution t dépend des degrés de liberté. Les courbes avec plus de
degrés de liberté sont plus hautes et ont des queues plus fines. Les trois
distributions t ont des « queues plus lourdes » que la distribution z.
Vous pouvez voir comment les courbes avec plus de degrés de liberté ressemblent
davantage à une distribution z. Comparez la courbe rose avec un degré de liberté à
la courbe verte pour la distribution z. La distribution t avec un degré de liberté est
plus courte et a des queues plus épaisses que la distribution z. Comparez ensuite la
courbe bleue avec 10 degrés de liberté à la courbe verte pour la distribution z. Ces
deux distributions sont très similaires.
Dans le calcul du test T, le résultat obtenu est appelé valeur T. Cette valeur
T est comparée à un tableau de valeurs critiques, appelée tableau de
distribution T. La comparaison est faite pour déterminer l’effet du hasard
sur la différence et déterminer si la différence se situe en dehors du champ
de cette chance.
T = (X̄ – μ) /( S/√n)
Où X̄ est la moyenne de l'échantillon, μ est la moyenne hypothétique de la
population, S est l'écart type de l'échantillon et n est le nombre
d'observations dans l'échantillon.
T = (X̄ – μ) / (S/√n)
= (9 – 5)/(3/√16)
= 5,33
Les hypothèses statistiques pour les tests t pour les moyennes indépendantes prennent
l'une des formes suivantes, selon que votre hypothèse de recherche est directionnelle
ou non directionnelle. Ces hypothèses sont de forme identique aux hypothèses
statistiques utilisées pour le test t pour les moyennes dépendantes.
Toutes les statistiques paramétriques comportent un ensemble d'hypothèses qui
doivent être respectées afin d'utiliser correctement les statistiques pour tester les
hypothèses. Les hypothèses du test t pour les moyennes indépendantes sont
énumérées ci-dessous.
Exemple médical :
Pour une société pharmaceutique, vous souhaitez voir si un médicament XY vous
aide ou non à perdre du poids. Cela se fait en donnant le médicament à 20
personnes et à 20 personnes un placebo.
La Formule du test T :
Voici la formule du test T à deux échantillons Pour des variances egales ou
inegales:
Où:
où,
m est la moyenne des différences
n est la taille de l’échantillon (c.-à-d. la taille de d).
s est l’écart-type de d
B) test Z
a) Defintion,score Z
Où
Parce que nous supposons que les deux distributions d'échantillons sont vraies (ou
du moins nos meilleures estimations de la vérité), nous calculons une erreur type
avec laquelle évaluer la différence entre les moyennes de l'échantillon. Nous
supposons également que les deux variances sont égales. (Par exemple,
« l'exposition » n'a modifié que la moyenne, et non la variance, entre les deux
échantillons. C'est généralement une hypothèse correcte, mais il faut examiner les
données pour voir si les variances des deux ensembles de données sont
effectivement proches. )
Si nous supposons des variances égales, nous pouvons prendre une sorte de «
moyenne pondérée » des variances des échantillons dans le calcul de SE, comme le
montre le dénominateur de la formule pour un test Z à deux échantillons :
Comme pour le test de moyenne sur un échantillon, un test Z sur deux échantillons
n'est conseillé que lorsque (a) les deux véritables écarts types (σ1 et σ2) sont connus,
ou (b) les deux échantillons sont suffisamment grands pour donner une bonne
estimation de leur véritable écart type (de manière conventionnelle, encore une fois,
lorsque les deux n >= 30).
lll)CONCLUSION
Dans l'ensemble, les tests statistiques paramétriques et non
paramétriques ont fourni des résultats significatifs sur les
différences entre les groupes étudiés, révélant des relations
importantes entre les variables analysées. Les tests
paramétriques ont souligné l'efficacité des hypothèses
basées sur la distribution normale des données, tandis que
les tests non paramétriques ont offert des conclusions
indépendantes de ces hypothèses, mettant en lumière des
relations significatives sans les contraintes de normalité
des données. Ces résultats offrent des perspectives
enrichissantes sur [domaine d'étude] et ouvrent la voie à
des analyses plus approfondies pour une meilleure
compréhension des phénomènes et des processus
impliqués."