Distance de Hellinger

Distance de Hellinger

En Théorie des probabilités, pour toutes mesures de probabilités P et Q absolument continues par rapport à une troisième mesure λ, le carré de la distance de Hellinger entre P et Q est donné par :

H^2(P,Q) = \frac{1}{2}\displaystyle \int \left(\sqrt{\frac{dP}{d\lambda}} - \sqrt{\frac{dQ}{d\lambda}}\right)^2 d\lambda.

\frac{dP}{d\lambda} et \frac{dQ}{d\lambda} désignent respectivement les dérivées de Radon-Nykodym de P et Q. Cette définition ne dépend pas de λ, si bien que la distance de Hellinger entre P et Q ne change pas si λ est remplacée par une autre mesure de probabilité par rapport à laquelle P et Q soient absolument continues.

Pour alléger l'écriture, la formule précédente est couramment écrite :

H^2(P,Q) = \frac{1}{2}\int \left(\sqrt{dP} - \sqrt{dQ}\right)^2.

La distance de Hellinger H(P,Q) ainsi définie vérifie :

0\le H(P,Q) \le 1.

Remarque : Certains auteurs ne font pas figurer le facteur 1/2 précédant l'intégrale dans cette définition.


Exemples

  • La distance de Hellinger entre deux lois normales P\sim\mathcal{N}(\mu_1,\sigma_1^2) et Q\sim\mathcal{N}(\mu_2,\sigma_2^2) est donnée par


H\left(P, Q\right)=\sqrt{\frac{1}{2}-\sqrt{
\frac{\sigma_1\sigma_2}{2\left(\sigma_1^2+\sigma_2^2\right)}e^{-\frac{1}{2}\frac{\left(\mu_1-\mu_2\right)^2}{\sigma_1^2+\sigma_2^2}}}}

H\left(P, Q\right) = 2 - \frac{4 \sqrt{\alpha \beta}}{\alpha + \beta}

Bibliographie

Notes et références

  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Distance de Hellinger de Wikipédia en français (auteurs)

Игры ⚽ Нужна курсовая?

Regardez d'autres dictionnaires:

  • Distance de Bhattacharyya — En statistiques, la distance de Bhattacharyya est une mesure de la similarité de deux distributions de probabilités discrètes. Elle est reliée au coefficient de Bhattacharyya , qui est une mesure statistique du recouvrement de deux ensembles d… …   Wikipédia en Français

  • Hellinger distance — In probability theory, a branch of mathematics, given two probability measures P and Q that are absolutely continuous in respect to a third probability measure lambda;, the square of the Hellinger distance between P and Q is defined as the… …   Wikipedia

  • Bert Hellinger — The German psychotherapist Bert Hellinger (born 1925) is among the most well known, influential and controversial practitioners living in Europe. He is considered the principal developer of a therapeutic method best known as Family Constellations …   Wikipedia

  • Mahalanobis distance — In statistics, Mahalanobis distance is a distance measure introduced by P. C. Mahalanobis in 1936.[1] It is based on correlations between variables by which different patterns can be identified and analyzed. It gauges similarity of an unknown… …   Wikipedia

  • Bhattacharyya distance — In statistics, the Bhattacharyya distance measures the similarity of two discrete probability distributions. It is normally used to measure the separability of classes in classification. For discrete probability distributions p and q over the… …   Wikipedia

  • Projet:Mathématiques/Liste des articles de mathématiques — Cette page n est plus mise à jour depuis l arrêt de DumZiBoT. Pour demander sa remise en service, faire une requête sur WP:RBOT Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou… …   Wikipédia en Français

  • Liste des articles de mathematiques — Projet:Mathématiques/Liste des articles de mathématiques Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou probabilités et statistiques via l un des trois bandeaux suivants  …   Wikipédia en Français

  • Divergence de Kullback-Leibler — En théorie des probabilités et en théorie de l information, la divergence de Kullback Leibler[1], [2] (ou divergence K L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités P et Q. Elle doit son… …   Wikipédia en Français

  • Kullback–Leibler divergence — In probability theory and information theory, the Kullback–Leibler divergence[1][2][3] (also information divergence, information gain, relative entropy, or KLIC) is a non symmetric measure of the difference between two probability distributions P …   Wikipedia

  • Film noir — Two silhouetted figures in The Big Combo (1955). The film s cinematographer was John Alton, the creator of many of film noir s iconic images …   Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”