Test d'hypothèse

Test d'hypothèse

En statistiques, un test d'hypothèse est une démarche consistant à évaluer une hypothèse statistique en fonction d'un jeu de données (échantillon).

Par exemple, ayant observé un certain nombre de tirages « pile ou face » produit par un pièce, on peut se demander si celle-ci est biaisée (c'est-à-dire possède une probabilité différente de 1/2 de tomber sur une face donnée). Dans cette situation, l'approche par test d'hypothèse consiste à supposer que la pièce est non biaisée (hypothèse nulle), et à calculer la probabilité d'observer des tirages au moins aussi extrêmes que celui effectivement observé (grâce à une loi binomiale). Si cette probabilité est faible (en pratique, inférieure à un seuil fixé, par exemple, 5%), on rejette l'hypothèse nulle de l'équiprobabilité des faces de la pièce, et on décide qu'elle est biaisée.

Sommaire

Risque de première espèce et de deuxième espèce

Une notion fondamentale concernant les tests est la probabilité que l'on a de se tromper.

Il y a deux façons de se tromper lors d'un test statistique :

  • rejeter à tort l'hypothèse nulle lorsqu'elle est vraie. On appelle ce risque le risque de première espèce et en général on note α la probabilité de se tromper dans ce sens. α est alors la probabilité d'avoir un faux positif : de rejeter une hypothèse alors qu'en fait elle est vraie ;
  • accepter l'hypothèse nulle alors qu'elle est fausse. On appelle ce risque le risque de deuxième espèce et en général on note β la probabilité de se tromper dans ce sens. β est alors la probabilité d'avoir un faux négatif : accepter une hypothèse alors qu'en fait elle est fausse ;

Dans l'idéal on aimerait bien que ces deux erreurs soient nulles, mais c'est impossible lorsque l'on ne dispose que d'un nombre fini d'observations, et il faut alors faire un choix.

Tests classiques et tests bayésiens

Pour les tests classiques qui constituent l'essentiel des tests statistiques, ces deux erreurs jouent un rôle asymétrique. On contrôle uniquement le risque de première espèce à un niveau α (principe de Neyman) ; cela revient à considérer que le risque de rejeter l'hypothèse nulle alors que cette hypothèse est vraie est beaucoup plus coûteux que celui de la conserver à tort (ce dernier risque n'étant pas maîtrisé).

Pour les tests bayésiens on peut parfois pondérer ces deux risques grâce à la connaissance d'une probabilité a priori. La connaissance de cette probabilité a priori est l'un des fondements de la statistique bayésienne et constitue l'une de ses difficultés majeures. Si on cherche par exemple à tester le fait qu'un certain paramètre θ vaut une certaine valeur θ0 cette probabilité a priori sera une loi de probabilité sur θ qui donne la probabilité que l'on a d'observer θ. Cette loi a priori est également appelée croyance a priori ou croyance bayésienne. Ces tests sont souvent d'une mise en œuvre plus complexe que les tests statistiques: la raison principale est qu'ils nécessitent de "trouver" une bonne loi a priori puis de la réviser grâce à la révision des croyances.

Classification

D'ordinaire on range les tests dans deux catégories les tests paramétriques et les tests non paramétriques. Les premiers testent la valeur d'un certain paramètre. Ces tests sont généralement les tests les plus simples. Les tests non paramétriques quant à eux ne font pas intervenir de paramètre. C'est par exemple le cas des tests d'adéquation à une loi ou des Test du χ².

On peut également distinguer les tests d'homogénéité et les tests d'adéquations :

  • dans le cas d'un test d'homogénéité, on veut comparer deux échantillons entre eux. L'hypothèse nulle H0 supposera l'homogénéité des deux échantillons. Par exemple on comparera deux moyennes ;
  • dans le cas d'un test d'adéquation (ou conformité), on veut déterminer si un échantillon suit une loi statistique connue. L'hypothèse nulle H0 supposera l'adéquation de l'échantillon à cette loi.

Déroulement d'un test

Pour le cas spécifique d'un test unilatéral, le test suit une succession d'étapes définies :

  1. énoncé de l'hypothèse nulle H0 et de l'hypothèse alternative H1 ;
  2. calcul d'une variable de décision correspondant à une mesure de la distance entre les deux échantillons dans le cas de l'homogénéité, ou entre l'échantillon et la loi statistique dans le cas de l'adéquation (ou conformité). Plus cette distance sera grande et moins l'hypothèse nulle H0 sera probable. En règle générale, cette variable de décision se base sur une statistique qui se calcule à partir des observations. Par exemple, la variable de décision pour un test unilatéral correspond à rejeter l'hypothèse nulle si la statistique dépasse une certaine valeur fixée en fonction du risque de première espèce ;
  3. calcul de la probabilité, en supposant que H0 est vraie, d'obtenir une valeur de la variable de décision au moins aussi grande que la valeur de la statistique que l'on a obtenue avec notre échantillon. Cette probabilité est appelée la valeur p (p-value) ;
  4. conclusion du test, en fonction d'un risque seuil αseuil, en dessous duquel on est prêt à rejeter H0. Souvent, un risque de 5 % est considéré comme acceptable (c'est-à-dire que dans 5 % des cas quand H0 est vraie, l'expérimentateur se trompera et la rejettera). Mais le choix du seuil à employer dépendra de la certitude désirée et de la vraisemblance des alternatives ;
  5. si la valeur p est plus grande que α, le test est non concluant, ce qui revient à dire que l'on ne peut rien affirmer. Si la valeur p est plus petite que α on rejette l'hypothèse nulle.

La probabilité pour que H0 soit acceptée alors qu'elle est fausse est β, le risque de deuxième espèce. C'est le risque de ne pas rejeter H0 quand on devrait la rejeter. Sa valeur dépend du contexte, et est très difficilement évaluable (voire impossible à évaluer), c'est pourquoi seul le risque α est utilisé comme critère de décision.

Tests classiques

Article détaillé : Test (statistique).

Il existe de nombreux tests statistiques classiques parmi lesquels on peut citer :

  • le test de Student, qui sert à la comparaison d'une moyenne observée avec une valeur « attendue » pour un échantillon distribué selon une loi normale  ;
  • le test de Fisher, aussi appelé test de Fisher-Snédécor, qui sert à la comparaison de deux variances observées.
  • l'Analyse de la variance ou Anova, permet de comparer entre elles plusieurs moyennes observées (pour les groupes étudiés), selon un plan expérimental prédéterminé. Elle se base sur une décomposition de la variance en une partie « explicable » (variance inter-groupes) et une partie « erreur » (variance globale intragroupe - ou variance résiduelle), supposée distribuée selon une loi normale. Ce test est particulièrement utilisé en sciences humaines, sciences sociales, sciences cognitives, en médecine et en biologie ;
  • le test du χ², également appelé test du χ2 de Pearson, qui sert notamment à la comparaison d'un couple d'effectifs observés, ou à la comparaison globale de plusieurs couples d'effectifs observés, et plus généralement à la comparaison de deux distributions observées ;
  • le test de Kolmogorov-Smirnov, qui comme le test du χ2 constitue un test d'adéquation entre des échantillons observés et une distribution de probabilité. Il compare la fonction de répartition observée et la fonction de répartition attendue. Il est particulièrement utilisé pour les variables aléatoires continues.

En méthodes bayésiennes, on utilise le psi-test (mesure de distance dans l'espace des possibles) dont on démontre que le test du χ2 représente une excellente approximation asymptotique lorsqu'il existe un grand nombre d'observations.

Voir aussi

Articles connexes

Liens externes

  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Test d'hypothèse de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • Test d'hypothese — Test d hypothèse En statistiques, un test d hypothèse est une démarche consistant à rejeter (ou plus rarement à accepter) une hypothèse statistique, appelée hypothèse nulle, en fonction d un jeu de données (échantillon). On cherche par exemple à… …   Wikipédia en Français

  • Test statistique ou test d'hypothèse — ● Test statistique ou test d hypothèse méthode permettant, à partir des observations d un ou de plusieurs échantillons d une population d accepter ou de rejeter, avec un certain risque d erreur, une hypothèse portant sur la population ou sur la… …   Encyclopédie Universelle

  • Test de kolmogorov-smirnov — En statistiques, le test de Kolmogorov Smirnov est un test d hypothèse utilisé pour déterminer si un échantillon suit bien une loi donnée connue par sa fonction de répartition continue, ou bien si deux échantillons suivent la même loi. Sommaire 1 …   Wikipédia en Français

  • hypothèse — [ ipɔtɛz ] n. f. • 1538; gr. hupothesis, de hupotithenai → thèse I ♦ Sc. 1 ♦ Math. Base de la démonstration d un théorème, d une théorie. ⇒ axiome, convention, postulat. On peut choisir pour hypothèse un axiome, une définition, un postulat ou un… …   Encyclopédie Universelle

  • TEST — Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom. Le Test est une procédure de vérification lors de la programmation d un logiciel. Un test est une méthode de travail dans de nombreux domaines, tant en… …   Wikipédia en Français

  • Test de Jarque-Bera — Le test de Jarque Bera cherche à déterminer si des données suivent une loi normale. Sommaire 1 Présentation 2 Approche plus formelle 3 Références 4 …   Wikipédia en Français

  • Test de jarque bera — Le test de Jarque Bera cherche à déterminer si des données suivent une loi normale. Sommaire 1 Présentation 2 Approche plus formelle 3 Références 4 …   Wikipédia en Français

  • Test de fisher — Le Test de Fisher, ou test d égalité de deux variances, est un test d hypothèse statistique qui permet de tester l égalité de deux variances en faisant le rapport des deux variances et en vérifiant que ce rapport ne dépasse pas une certaine… …   Wikipédia en Français

  • Test du χ² — Pour la loi de probabilité, voir Loi du χ². Densité du χ² en fonction du nombre de degrés de liberté Le test du χ² (prononcer « khi deux » ou « khi carré », qu on …   Wikipédia en Français

  • Test (statistique) — Pour les articles homonymes, voir Test. En statistiques, un test d hypothèse est une démarche consistant à rejeter ou à ne pas rejeter (rarement accepter) une hypothèse statistique, appelée hypothèse nulle, en fonction d un jeu de données… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”