Distance de Hellinger
- Distance de Hellinger
-
En Théorie des probabilités, pour toutes mesures de probabilités P et Q absolument continues par rapport à une troisième mesure λ, le carré de la distance de Hellinger entre P et Q est donné par :
où et désignent respectivement les dérivées de Radon-Nykodym de P et Q. Cette définition ne dépend pas de λ, si bien que la distance de Hellinger entre P et Q ne change pas si λ est remplacée par une autre mesure de probabilité par rapport à laquelle P et Q soient absolument continues.
Pour alléger l'écriture, la formule précédente est couramment écrite :
La distance de Hellinger H(P,Q) ainsi définie vérifie :
Remarque : Certains auteurs ne font pas figurer le facteur 1/2 précédant l'intégrale dans cette définition.
Exemples
- La distance de Hellinger entre deux lois normales et est donnée par
Bibliographie
- (en) Yang, Grace Lo; Le Cam, Lucien M., Asymptotics in Statistics: Some Basic Concepts, Berlin, Springer, 2000, 2e éd. (ISBN 978-0-387-95036-5) (LCCN 00030759)
- (en) Vaart, A. W. van der, Asymptotic Statistics (Cambridge Series in Statistical and Probabilistic Mathematics), Cambridge, UK, Cambridge University Press, 2006, 1re éd., poche (ISBN 978-0-521-78450-4) (LCCN 98015176)
- (en) Pollard, David E., A user's guide to measure theoretic probability, Cambridge, UK, Cambridge University Press, 2002, poche (ISBN 978-0-521-00289-9) (LCCN 2001035270)
Notes et références
- Portail des probabilités et des statistiques
Wikimedia Foundation.
2010.
Contenu soumis à la licence CC-BY-SA. Source : Article Distance de Hellinger de Wikipédia en français (auteurs)
Regardez d'autres dictionnaires:
Distance de Bhattacharyya — En statistiques, la distance de Bhattacharyya est une mesure de la similarité de deux distributions de probabilités discrètes. Elle est reliée au coefficient de Bhattacharyya , qui est une mesure statistique du recouvrement de deux ensembles d… … Wikipédia en Français
Hellinger distance — In probability theory, a branch of mathematics, given two probability measures P and Q that are absolutely continuous in respect to a third probability measure lambda;, the square of the Hellinger distance between P and Q is defined as the… … Wikipedia
Bert Hellinger — The German psychotherapist Bert Hellinger (born 1925) is among the most well known, influential and controversial practitioners living in Europe. He is considered the principal developer of a therapeutic method best known as Family Constellations … Wikipedia
Mahalanobis distance — In statistics, Mahalanobis distance is a distance measure introduced by P. C. Mahalanobis in 1936.[1] It is based on correlations between variables by which different patterns can be identified and analyzed. It gauges similarity of an unknown… … Wikipedia
Bhattacharyya distance — In statistics, the Bhattacharyya distance measures the similarity of two discrete probability distributions. It is normally used to measure the separability of classes in classification. For discrete probability distributions p and q over the… … Wikipedia
Projet:Mathématiques/Liste des articles de mathématiques — Cette page n est plus mise à jour depuis l arrêt de DumZiBoT. Pour demander sa remise en service, faire une requête sur WP:RBOT Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou… … Wikipédia en Français
Liste des articles de mathematiques — Projet:Mathématiques/Liste des articles de mathématiques Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou probabilités et statistiques via l un des trois bandeaux suivants … Wikipédia en Français
Divergence de Kullback-Leibler — En théorie des probabilités et en théorie de l information, la divergence de Kullback Leibler[1], [2] (ou divergence K L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités P et Q. Elle doit son… … Wikipédia en Français
Kullback–Leibler divergence — In probability theory and information theory, the Kullback–Leibler divergence[1][2][3] (also information divergence, information gain, relative entropy, or KLIC) is a non symmetric measure of the difference between two probability distributions P … Wikipedia
Film noir — Two silhouetted figures in The Big Combo (1955). The film s cinematographer was John Alton, the creator of many of film noir s iconic images … Wikipedia