Pour les articles homonymes, voir Test (statistique) (homonymie).
Principe d'un test statistique
Le but d'un test statistique est de tester une hypothèse concernant un ensemble de données.
Exemple
On dispose de N réalisations d'une loi que l'on sait normale (espérance
μ et variance 1), on désire tester l'hypothèse :
contre :
Calculons T emp = | Σ i = 1 → N + 1 x i –––––––––––––––––––––––––––––––––––– Σ (x i -1/N Σ i = 1→N x i ) 2 |
.
Sous l'hypothèse H 0 , nous connaissons la distribution de cette statistique. Nous pouvons alors évaluer sa vraissemblance en calculant une p-value : p value = P H 0
Différents types d'erreurs
Dans la pratique, les tests statistiques conduisent à deux types d'erreurs :
- Rejet à tort de l'hypothèse H 0 : erreur de première espèce, ou Faux positif.
- Acceptation à tort de l'hypothèse H 0 : erreur de seconde espèce, ou Faux-négatif.
Il est alors possible de contrôler α, le taux d'erreur de première espèce :
- Si p value < α : On rejette H 0
- Si p value > α : On accepte H 0
Remarque : Dans les livres Statistiques il est marque que Rejet de Ho ssi
p value < αD'après Gujarati la p value est le niveau significatif le plus bas où l'hypothèse nulle peut-être rejetée (traduction faite par mes soins, il se peut qu'elle ne soit pas exacte à 100 %) ainsi donc si p value > α alors on ne rejette pas
Schématiquement : Soit α = 5 %
Si P-Value = 0,03 : <br> 0%---1%---2%---3%---4%---5%---6%---7%---8%---9%---10% <br> ]...Non Rejet.........Non Rejet....................Non Rejet.............[.....Rejet.....[ <br> Or à 5%, on ne rejette pas --> Non rejet de Ho (ce qui est différent d'acceptation de Ho qui dépendra du test de seconde espèce)
Liste des tests statistiques
Test du T
Test du U
Test du U
Test du χ2
- H0 : σ2 > = σ02
- H1 : σ2 > σ02
Test du U
Test du U
Test du F
Test du χ2
Test du T
Test de Fisher-Student
Test de Spearman
Tests non paramétriques
Test de Mann-Whitney
Le test de (Wilcoxon-) Mann-Whitney est un test non paramétrique d'identité portant sur deux échantillons indépendants issus de variables numériques ou ordinales.
Ces deux jeux peuvent contenir des nombres différents d'observations, ou même faire référence à deux variables différentes.
1) C'est un test d'identité : il porte sur le fait que deux séries de valeurs numériques (ou ordinales) sont issues d'une même distribution.
2) Il est non paramétrique, c'est à dire qu'il ne fait aucune hypothèse sur les formes analytiques des distributions F1(x) et F2(x) des populations 1 et 2. Il teste donc l'hypothèse :
H0 : "F1 = F2"
3) Il utilise non pas les valeurs prises par les observations, mais leur rangs une fois ces observations réunies dans un même ensemble.
de tester une hypothèse concernant un ensemble de données.
Exemple
On dispose de N réalisations d'une loi que l'on sait normale (espérance μ et variance 1), on désire tester l'hypothèse :
Le test de Mann-Whitney a donc le même objectif qu'un autre test d'identité important, le "Test du Chi-2 d'identité", dans sa version pour variable numérique. Si les populations sont supposées normales et de même variance, le test t aura la préférence.
Le test de Kruskal-Wallis peut être perçu comme une extension du test de Mann-Whitney à plus de deux échantillons (de même que ANOVA univariée est une extension du test t à plus de deux échantillons).
Test du signe
Test de Wilcoxon
R α (n) = | n (n+1) ––––––––– 4 | - u 1 - α / 2 | √ | ––––––––––––––––––––––– 1/24n (n+1)(2n+1) |
R α (n) = | n (n+1) ––––––––– 4 | - u 1 - α | √ | ––––––––––––––––––––––– 1/24n (n+1)(2n+1) |
Notes et références
Voir aussi
Liens internes
Bibliographie
- (fr)DAGNELIE P. (1998) Statistique théorique et appliquée. Tome 1 : Statistique descriptive et base de l'inférence statistique. Paris et Bruxelles, De Boeck et Larcier.
- (fr)DAGNELIE P. (1998) Statistique théorique et appliquée. Tome 2 : Inférence statistique à une et à deux dimensions. Paris et Bruxelles, De Boeck et Larcier.
- (fr)DROESBECKE J.-J. (2001) Éléments de statistique. Paris, Ellipses.
- (fr)ESCOFIER B., PAGES J. (1997) Initiation aux traitements statistiques : Méthodes, méthodologie. PUR, Rennes.
- (fr)FALISSARD B., MONGA (1993) Statistique : concepts et méthodes. Paris, Masson.
- (fr)ROUANET H., BERNARD J.-M., LE ROUX B. (1990) : Statistique en sciences humaines : analyse inductive des données. Paris, Dunod.
- (fr)SAPORTA G. (1990) Probabilité, Analyse des données et Statistique. Paris, Technip.
- (fr)VEYSSEYRE R. (2002) Statistique et probabilité pour l'ingénieur. Paris, Dunod.