Loi normale gaussienne

Loi normale gaussienne

Loi normale

Distribution gaussienne
Densité de probabilité / Fonction de masse
Densité
La courbe rouge représente la fonction φ (voir texte), densité de probabilité d'une variable suivant une loi normale centrée réduite
Fonction de répartition
Fonction de masse pour les distributions correspondantes
Paramètres μ moyenne (nombre réel)
σ2 > 0 variance (nombre réel)
Support x \in\, ]-\infty;+\infty[\!
Densité de probabilité (fonction de masse) \frac1{\sigma\sqrt{2\pi}}\; \exp\left(-\frac{\left(x-\mu\right)^2}{2\sigma^2} \right) \!
Fonction de répartition \frac12 \left(1 + \mathrm{erf}\,\frac{x-\mu}{\sigma\sqrt2}\right) \!
Espérance μ
Médiane (centre) μ
Mode μ
Variance σ2
Asymétrie (statistique) 0
Kurtosis (non-normalisé) 3 (0 si normalisé)
Entropie \ln\left(\sigma\sqrt{2\,\pi\,e}\right)\!
Fonction génératrice des moments M_X(t)= \exp\left(\mu\,t+\sigma^2 \frac{t^2}{2}\right)
Fonction caractéristique \phi_X(t)=\exp\left(\mu\,i\,t-\frac{\sigma^2 t^2}{2}\right)

En probabilité, on dit qu'une variable aléatoire réelle X suit une loi normale (ou loi normale gaussienne, loi de Laplace-Gauss) d'espérance μ et d'écart type σ strictement positif (donc de variance σ2) si cette variable aléatoire réelle X admet pour densité de probabilité la fonction f définie, pour tout nombre réel x, par :

f(x)\ =\ \tfrac{1}{\sigma \sqrt{2\pi}}\ \mathrm{e}^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}

Une telle variable aléatoire est alors dite variable gaussienne.

On note habituellement cela de la manière suivante :

X \sim \mathcal{N}(\mu,\, \sigma^2)[1]

La loi normale est une des principales distributions de probabilité. Elle a été introduite par le mathématicien Abraham de Moivre en 1733 et utilisée par lui afin d'approcher des probabilités associées à des variables aléatoires binomiales possédant un paramètre n très grand. Cette loi a été mise en évidence par Gauss au XIXe siècle et permet de modéliser de nombreuses études biométriques. Sa densité de probabilité dessine une courbe dite courbe en cloche ou courbe de Gauss.

Sommaire

La loi normale centrée réduite

Définition

Représentation graphique d'une loi normale centrée réduite (dite courbe de Gauss ou courbe en cloche).

On appelle loi normale (ou gaussienne) centrée réduite la loi définie par la densité de probabilité \varphi : \R \to \R^+ définie par :

\varphi(t)=\frac{1}{\sqrt{2\;\pi}}\, \mathrm{e}^{-\frac{t^2}{2}}

On vérifie qu'elle est continue et que son intégrale sur \ \R est égale à 1.

On sait en effet que \ \int_{-\infty}^{+\infty}\mathrm{e}^{-\frac{t^2}{2}}\ dt = \sqrt{2\, \pi} (intégrale de Gauss).

On démontre (voir plus bas) que la loi définie par cette densité de probabilité admet une espérance nulle et une variance égale à 1.

Remarques :

  • la densité \ \varphi est paire ;
  • elle est indéfiniment dérivable et vérifie, pour tout \ t \in \R, l'identité \varphi'(t) = - t\, \varphi(t).

La représentation graphique de cette densité est une courbe en cloche (ou courbe de Gauss).

Moments

Les moments de cette loi existent tous. Pour tout \ n \in \mathbb{N}, le moment d'ordre n par rapport à l'origine est :

\ m_n = \int_{-\infty}^{+\infty} t^n\,  \varphi(t)\, dt.

Pour la suite on supposera μ = 0 et σ2 = 1.

  • En raison de la parité de l'intégrande, tous les moments d'ordre impair sont nuls :
m_{2\, k+1} = 0
  • Supposons à présent n pair : \ n = 2\, k, où \ k \in \mathbb{N}.
Si \ k \geq 1, une intégration par parties (non détaillée ici) donne :
m_{2\, k} = \int_{-\infty}^{+\infty} t^{2\, k - 1}\,  t\, \varphi(t)\, dt =-\int_{-\infty}^{+\infty} t^{2\, k - 1}\,  \varphi'(t)\, dt = (2\, k - 1) \int_{-\infty}^{+\infty} t^{2\, k - 2}\, \varphi(t)\, dt
ce qui fournit la relation de récurrence :
m_{2\, k} = (2\, k - 1)\, m_{2\, k - 2} .
De cette relation, on déduit, comme \ m_0 = 1\,, que :
m_{2\, k} = 1 \cdot 3 \cdots  (2\, k - 1) = \frac{(2\, k)\, !}{2^k\, k\,!}
  • En particulier, \ m_1 = 0 (l'espérance est nulle : la loi est donc dite centrée) et \ m_2 = 1\, (la variance vaut \ \ m_2 - m_1^2 = 1\,\! : la loi est donc dite réduite).
Ceci justifie l'appellation de loi normale centrée réduite.
  • Des formules précédentes, on déduit encore :
m_3 = 0\,  et  m_4 = 3\,
  • La loi étant réduite, les moments centrés sont tous égaux aux moments par rapport à l'origine de même rang ; en particulier :
\mu_2 = \sigma^2 = 1\,,  \mu_3 = 0\, et \mu_4 = 3 \sigma^4 \,.
On en déduit l'asymétrie (skewness) : \gamma_1 = \frac{\mu_3}{\sigma^3} = 0\, et l'aplatissement (kurtosis) : \beta_2 = \frac{\mu_4}{\sigma^4} = 3\,.

Fonction de répartition

Article détaillé : fonction d'erreur.

On note Φ la fonction de répartition de la loi normale centrée réduite. Elle est définie, pour tout réel x, par :

\ \Phi(x) = \int_{-\infty}^x \varphi(t)\, dt = \int_{-\infty}^x\frac{1}{\sqrt{2\,\pi}}\,\mathrm{e}^{-\frac{t^2}{2}}\, dt .

C'est la primitive de \varphi qui tend vers 0 en -\infty ; elle ne s'exprime pas à l'aide des fonctions usuelles (exponentielle, etc.) mais devient elle-même une fonction usuelle, importante, pour quiconque pratique le calcul des probabilités ou les statistiques ; elle s'exprime à l'aide de la fonction d'erreur.

Citons les propriétés suivantes de la fonction Φ :

(c'est donc une bijection \R \to\, ]0,\, 1[\, : pour tout p \in\, ]0,\, 1[\,, il existe  x \in \R unique, noté \ \Phi^{-1}(p), tel que \ \Phi(x) = p)
  • Pour tout  x \in \R, \Phi(-x) = 1 - \Phi(x) (ceci résulte de ce que la densité est paire) ; en particulier, \ \Phi(0) = 0,5

Remarque : les notations \varphi et \ \Phi pour désigner « la » densité et la fonction de répartition de la loi normale centrée réduite sont usuelles.

Approximation de la fonction de répartition

Il n'existe pas d'expression pour Φ mais on peut exploiter avec profit son aspect régulier pour en donner une approximation grâce à un développement en série de Taylor. Par exemple, voici une approximation (à l'ordre 5) autour de 0: \Phi(x) \approx \frac{1}{2} +  \frac{1}{\sqrt{2 \pi}} \left[x-\frac{x^3}{6}+\frac{x^5}{40}\right]. Cette approximation est performante pour | x | < 2.

Une approximation pour les grandes valeurs de x est donnée, pour x positif, par la formule

1-\Phi(x) = \frac{e^{-x^2}}{\sqrt{2\pi}}. \left ( \frac{1}{x}  +\sum_{k=1}^{+\infty} \frac{(2k-1)!!\,(-1)^k}{x^{2k+1}}\right),

série divergente pour tout x positif, mais dont les sommes partielles encadrent 1-Φ(x) de manière efficace lorsque x est grand. Par exemple,

\frac{e^{-x^2}}{\sqrt{2\pi}}\left ( \frac{1}{x}  - \frac{1}{x^{3}}\right)\ \le\ 1-\Phi(x)\ \le\ \frac{e^{-x^2}}{x\sqrt{2\pi}},

d'où une erreur relative inférieure à 25% pour x supérieur à 2 ou bien inférieure à 11% pour x supérieur à 3. Ou bien encore :

\frac{e^{-x^2}}{\sqrt{2\pi}}\left ( \frac{1}{x}  - \frac{1}{x^{3}}+\frac{3}{x^5}  - \frac{15}{x^{7}}\right)\ \le\ 1-\Phi(x)\ \le\ \frac{e^{-x^2}}{\sqrt{2\pi}}\left ( \frac{1}{x}  - \frac{1}{x^{3}}+\frac{3}{x^5}\right),

d'où une erreur relative inférieure à 25% pour x supérieur à 2 ou bien inférieure à 2% pour x supérieur à 3.

Tables numériques

Il existe des tables de la fonction de répartition, donnant des valeurs approchées de \ \Phi(x) ; on se limite à des x positifs ou nuls : en effet, si par exemple on connaît l'approximation \Phi(0,5) \simeq 0,6915, on en déduit \Phi(-0,5) \simeq 1 - 0,6915 = 0,3085.

Au lieu des précédentes, on utilise souvent des tables de la fonction qu'on notera ici \ \Phi_0, définie sur \ \R^+ par :

\Phi_0(x) =\int_0^x \varphi(t)\, dt

La table suivante donne pour tout x de 0 jusqu'à 3,9 par pas de 0,01, la valeur de 105 Φ(x). Ces valeurs sont arrondies à l'unité la plus proche.

L'entrée en ligne donne les deux premiers chiffres de x, c'est-à-dire le chiffre des unités et celui des dixièmes, et l'entrée en colonne le chiffre des centièmes.

Par exemple : Φ(1,73) = 0,95818.

0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 50000 50399 50798 51197 51595 51994 52392 52790 53188 53586
0,1 53983 54380 54776 55172 55567 55962 56356 56749 57142 57535
0,2 57926 58317 58706 59095 59483 59871 60257 60642 61026 61409
0,3 61791 62172 62552 62930 63307 63683 64058 64431 64803 65173
0,4 65542 65910 66276 66640 67003 67364 67724 68082 68439 68793
0,5 69146 69497 69847 70194 70540 70884 71226 71566 71904 72240
0,6 72575 72907 73237 73565 73891 74215 74537 74857 75175 75490
0,7 75804 76115 76424 76730 77035 77337 77637 77935 78230 78524
0,8 78814 79103 79389 79673 79955 80234 80511 80785 81057 81327
0,9 81594 81859 82121 82381 82639 82894 83147 83398 83646 83891
1,0 84134 84375 84614 84849 85083 85314 85543 85769 85993 86214
1,1 86433 86650 86864 87076 87286 87493 87698 87900 88100 88298
1,2 88493 88686 88877 89065 89251 89435 89617 89796 89973 90147
1,3 90320 90490 90658 90824 90988 91149 91309 91466 91621 91774
1,4 91924 92073 92220 92364 92507 92647 92785 92922 93056 93189
1,5 93319 93448 93574 93699 93822 93943 94062 94179 94295 94408
1,6 94520 94630 94738 94845 94950 95053 95154 95254 95352 95449
1,7 95543 95637 95728 95818 95907 95994 96080 96164 96246 96327
1,8 96407 96485 96562 96638 96712 96784 96856 96926 96995 97062
1,9 97128 97193 97257 97320 97381 97441 97500 97558 97615 97670
2,0 97725 97778 97831 97882 97932 97982 98030 98077 98124 98169
2,1 98214 98257 98300 98341 98382 98422 98461 98500 98537 98574
2,2 98610 98645 98679 98713 98745 98778 98809 98840 98870 98899
2,3 98928 98956 98983 99010 99036 99061 99086 99111 99134 99158
2,4 99180 99202 99224 99245 99266 99286 99305 99324 99343 99361
2,5 99379 99396 99413 99430 99446 99461 99477 99492 99506 99520
2,6 99534 99547 99560 99573 99585 99598 99609 99621 99632 99643
2,7 99653 99664 99674 99683 99693 99702 99711 99720 99728 99736
2,8 99744 99752 99760 99767 99774 99781 99788 99795 99801 99807
2,9 99813 99819 99825 99831 99836 99841 99846 99851 99856 99861
3,0 99865 99869 99874 99878 99882 99886 99889 99893 99896 99900
3,1 99903 99906 99910 99913 99916 99918 99921 99924 99926 99929
3,2 99931 99934 99936 99938 99940 99942 99944 99946 99948 99950
3,3 99952 99953 99955 99957 99958 99960 99961 99962 99964 99965
3,4 99966 99968 99969 99970 99971 99972 99973 99974 99975 99976
3,5 99977 99978 99978 99979 99980 99981 99981 99982 99983 99983
3,6 99984 99985 99985 99986 99986 99987 99987 99988 99988 99989
3,7 99999 99999 99999 99999 99999 99999 99999 99999 99999 99999
3,8 99999 99999 99999 99999 99999 99999 99999 99999 99999 99999
3,9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

On dispose des relations simples suivantes entre \ \Phi et \ \Phi_0 (découlant de la formule de Chasles pour les intégrales) :

  • si \ x \geq 0, alors \ \Phi(x) = 0,5 + \Phi_0(x)
  • si \ x < 0, alors \ \Phi(x) = 0,5 - \Phi_0(-x)

Soit T une variable aléatoire suivant la loi normale centrée réduite :

  • pour tout \ x \in \R,\, P(T \leq x) = \Phi(x) et pour tout \ x \in \R^+,\, P(0 \leq T \leq x) = \Phi_0(x)
  • pour tout couple \ x_1,\, x_2 de réels tels que \ x_1 \leq x_2, \ P(x_1 \leq T \leq x_2) = \Phi(x_2)- \Phi(x_1).
Exemples numériques

À l'aide de la table ci-dessus, on obtient, pour la variable aléatoire précédente :

  • \ P(0 \leq T \leq 1,7) = \Phi_0(1,7) \simeq 0,4554
  • \ P(T \leq 1,7) = \Phi(1,7) = 0,5 + \Phi_0(1,7) \simeq 0,9554
  • \ P(-0,3 \leq T \leq 1,7) = \Phi(1,7)- \Phi(-0,3) = 0,5 + \Phi_0(1,7) - 0,5 + \Phi_0(0,3) \simeq 0,5733

La loi normale générale

Soient \ T une variable aléatoire suivant la loi normale centrée réduite, et deux réels \mu,\, \sigma, où \ \sigma > 0.

On définit la variable aléatoire X = \sigma\, T + \mu, dont on note \ F la fonction de répartition.

On a \mathrm{E}(X) = \sigma\, \mathrm{E}(T) + \mu = \mu et \mathrm{V}(X) = \sigma^2\, \mathrm{V}(T) = \sigma^2 puisque \ \mathrm{E}(T)  = 0 et \ \mathrm{V}(T) = 1.

Cherchons la loi de \ X : pour tout x \in \R,

F(x) = P(X \leq x) = P(\sigma\, T + \mu \leq x) = P\left(T \leq \frac{x - \mu}{\sigma}\right) = \Phi\left(\frac{x - \mu}{\sigma}\right),
puisque la fonction de répartition de \ T est \ \Phi.

Ainsi, \ F est continûment (et même indéfiniment) dérivable : \ X suit une loi à densité, et la dérivée \ f de \ F est une densité de probabilité de cette variable aléatoire ; pour tout x \in \R,

f(x) = F'(x) = \frac{1}{\sigma}\, \Phi' \left(\frac{x - \mu}{\sigma}\right) = \frac{1}{\sigma}\, \varphi \left(\frac{x - \mu}{\sigma}\right) = \frac{1}{\sigma \sqrt{2\,\pi}}\, \mathrm{e}^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}.

Ceci légitime la définition suivante :

Définition

On appelle loi normale (ou gaussienne, ou de Laplace-Gauss) de paramètres \ \mu,\, \sigma^2 (où \ \sigma > 0) la loi de probabilité définie par la densité \ f : \R \to \R^+, telle que pour tout x \in \R :

f(x) = \frac{1}{\sigma}\, \varphi \left(\frac{x - \mu}{\sigma}\right) = \frac{1}{\sigma \sqrt{2\,\pi}}\, \mathrm{e}^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}.

Une variable gaussienne est une variable aléatoire réelle qui suit une loi normale de paramètres \ \mu,\, \sigma^2 (où \ \sigma est soit positive, soit nulle). Le cas où \ \sigma est nul est appelé cas dégénéré et correspond aux variables aléatoires constantes. Cette convention étrange est commode, voire indispensable (par exemple pour définir les vecteurs gaussiens).

Notation: cette loi est notée \mathcal{N}(\mu,\, \sigma^2) [1]
La loi normale centrée réduite est notée \mathcal{N}(0,\, 1).

On peut énoncer plusieurs propriétés, compte tenu de ce qui précède (le dernier point se démontrant de manière analogue).

Propriétés

Soit une variable aléatoire \ X qui suit la loi normale \mathcal{N}(\mu,\, \sigma^2). Alors :

  • son espérance et sa variance existent et \ \mathrm{E}(X) = \mu, \ \mathrm{V}(X) = \sigma^2 > 0
  • sa fonction de répartition \ F est telle que pour tout x \in \R,
F(x) = \Phi\left(\frac{x - \mu}{\sigma}\right)
  • la variable aléatoire X^\star = \frac{X - \mathrm{E}(X)}{\sqrt{\mathrm{V}(X)}}, c'est-à-dire X^\star = \frac{X - \mu}{\sigma}, suit la loi normale centrée réduite
  • si \ \alpha,\, \beta sont deux réels (\ \alpha \neq 0), alors la variable aléatoire \ \alpha\, X + \beta suit la loi normale \mathcal{N}(\alpha\, \mu + \beta,\, \alpha^2\, \sigma^2)

Soit une variable aléatoire \ X qui suit la loi normale \mathcal{N}(\mu,\, \sigma^2). Alors la variable aléatoire exp(X) (de loi dite log-normale) possède les propriétés suivantes:

Soit une variable aléatoire \ X suivant une loi normale \mathcal{N}(\mu_X,\, \sigma_X^2) et \ Y suivant une loi normale \mathcal{N}(\mu_Y,\, \sigma_Y^2). Alors, la divergence de Kullback-Leibler entre ces deux distributions est de la forme :

  • D_{KL}(X\|Y) = \frac{1}{2} \left( \log \left( \frac{\sigma_Y^2}{\sigma_X^2} \right) + \frac{\sigma_X^2}{\sigma_Y^2} + \frac{(\mu_Y - \mu_X)^2}{\sigma_Y^2} - 1 \right)

Largeur à mi-hauteur

Lorsque l'on travaille sur une représentation graphique, on estime fréquemment la largeur de la gaussienne par sa largeur à mi-hauteur H (en anglais full width at half maximum, FWHM), qui est la largeur de la courbe à une altitude qui vaut la moitié de l'altitude du sommet. La largeur à mi-hauteur est proportionnelle à l'écart type :

H = 2 \sqrt{2\ \ln(2)}\ \sigma \simeq  2,3548 \sigma

Le facteur 2 sert à prendre en compte l'extension de la gaussienne dans les valeurs négatives.

Calcul de P(a ≤ X ≤ b)

Les résultats précédents permettent de ramener tout calcul de probabilité relatif à la loi normale \mathcal{N}(\mu,\, \sigma^2) à un calcul de probabilité relatif à la loi normale centrée réduite. On a vu qu'on dispose de tables donnant des approximations de valeurs de la fonction \ \Phi, tables qu'on utilise encore fréquemment, même si certaines calculatrices ou certains tableurs peuvent maintenant les remplacer.

Si la variable aléatoire \ X suit la loi normale \mathcal{N}(\mu,\, \sigma^2), et si \ a,\, b sont deux réels tels que \ a \leq b, on a :

\ P(a \leq X \leq b) = F(b) - F(a) = \Phi\left(\frac{b - \mu}{\sigma}\right) - \Phi\left(\frac{a - \mu}{\sigma}\right)

Cas d'un intervalle centré à la moyenne, plages de normalité

  • Si t est un réel positif,
\ P(\mu - t\, \sigma \leq X \leq \mu + t\, \sigma) = \Phi(t) - \Phi(-t) = \Phi(t) - (1 - \Phi(t)) = 2\, \Phi(t) - 1
  • lorsque \ P(\mu - t\, \sigma \leq X \leq \mu + t\, \sigma) = \alpha, où \  \alpha \in\, ]0,\, 1[,
ce qui équivaut à \ 2\, \Phi(t) - 1 = \alpha, ou \ \Phi(t) = \frac{\alpha + 1}{2},
l'intervalle \ [\mu - t\, \sigma,\, \mu + t\, \sigma] = [\mathrm{E}(X) - t\, \sigma,\, \mathrm{E}(X) + t\, \sigma] est appelé plage de normalité au niveau de confiance α
(si par exemple, α = 0,95, on dit : "plage de normalité au niveau de confiance 95%" : en statistique, c'est un intervalle dans lequel se trouve 95% de la population lorsque la distribution est gaussienne).

Exemples numériques

Grâce à la table précédente, on obtient :

  • \ P(\mu - \sigma \leq X \leq \mu + \sigma) \simeq 0,6826 ;
l'intervalle [\mathrm{E}(X) - \sigma,\, \mathrm{E}(X) + \sigma] est la plage de normalité au niveau de confiance 68 %
  • \ P(\mu - 0,5H \leq X \leq \mu + 0,5H) \simeq 0,76.. ;
l'intervalle [\mathrm{E}(X) - 0,5H,\, \mathrm{E}(X) + 0,5H] (H étant la largeur à mi-hauteur) est la plage de normalité au niveau de confiance 76 %
  • \ P(\mu - 2\, \sigma \leq X \leq \mu + 2\, \sigma) \simeq 0,9544 ;
l'intervalle [\mathrm{E}(X) - 2\, \sigma,\, \mathrm{E}(X) + 2\, \sigma] est la plage de normalité au niveau de confiance 95 %
  • \ P(\mu - 3\, \sigma \leq X \leq \mu + 3\, \sigma) \simeq 0,9974 ;
l'intervalle [\mathrm{E}(X) - 3\, \sigma,\, \mathrm{E}(X) + 3\, \sigma] est la plage de normalité au niveau de confiance 99 %

Champ d'application

Une planche de Galton nous montre que la loi binomiale tend vers la loi normale

Le Théorème de Moivre-Laplace affirme la convergence d'une loi binomiale vers une loi de Gauss quand le nombre d'épreuves augmente. On peut alors utiliser la loi normale comme approximation d'une loi binomiale de paramètres (n ; p) pour n grand et p, 1 - p de même ordre de grandeur ; on approche alors cette loi binomiale par la loi normale ayant même espérance np et même variance np(1 − p).

On a dessiné ci-dessous :

  • la loi binomiale de paramètres (12;1 / 3) (diagramme en bâtons rouge) et la loi normale correspondante d'espérance 4 et de variance 8 / 3 (courbe verte)
Bernoulli12.png
  • la loi binomiale de paramètres (60;1 / 3) (diagramme en bâtons rouge) , et la loi normale correspondante d'espérance 20 et de variance 40 / 3 (courbe verte)
Bernoulli60.png

Le mathématicien Carl Friedrich Gauss a introduit cette loi pour le calcul d'erreurs.

En statistiques, de nombreux phénomènes suivent des distributions gaussiennes : données biométriques des individus (Adolphe Quételet).

Critères et tests de normalité

Critères de normalité

Le recours à une distribution gaussienne est si fréquent qu'il peut finir par être abusif. Il faut alors rechercher des critères de normalité.

Le premier critère, le plus simple, consiste à tracer l'histogramme ou le diagramme en bâtons de la distribution et à vérifier si le diagramme est en forme de « cloche ». Ce critère, subjectif, permet cependant d'éliminer une partie des distributions jugées alors non gaussiennes.

Le critère suivant consiste à utiliser les plages de normalité ou intervalles de confiance. On a vu que si une distribution est gaussienne :

  • 68% de la population est dans l'intervalle [\overline{x} -\sigma\, ;\, \overline{x}+\sigma],
  • 76% de la population est dans l'intervalle [\overline{x} -0,5H\, ;\, \overline{x}+0,5H],
  • 95% de la population est dans l'intervalle [\overline{x} -2\, \sigma\, ;\, \overline{x} + 2\, \sigma],
  • 99% de la population est dans l'intervalle [\overline{x} - 3\, \sigma\, ;\, \overline{x} + 3\, \sigma].

Lorsque ces pourcentages ne sont pas respectés, il y a fort à parier que la distribution n'est pas gaussienne.

On peut aussi utiliser la droite de Henry, en particulier quand on possède peu de renseignements sur la distribution. La droite de Henry va permettre de porter un diagnostic sur la nature non gaussienne de la distribution, et, dans le cas où celle-ci a des chances d'être gaussienne, elle permet d'en déterminer la moyenne et l'écart type.

Tests de normalité

Il existe également un grand nombre de tests de normalité:

  • ou encore le test de Shapiro-Wilk (en)

Stabilité de la loi normale par la somme

La somme de deux variables gaussiennes indépendantes est elle-même une variable gaussienne. Plus explicitement :

Soient  X_1,\, X_2 deux variables aléatoires indépendantes suivant respectivement les lois  \mathcal{N}(m_1,\, \sigma_1^2) et  \mathcal{N}(m_2,\, \sigma_2^2).

Alors, la variable aléatoire \ X_1 + X_2 suit la loi normale  \mathcal{N}(m_1 + m_2,\, \sigma_1^2 + \sigma_2^2).

Cette propriété se démontre directement (par convolution), ou indirectement (au moyen des fonctions caractéristiques).

Exemple

On prend ici le gramme comme unité de masse. Si la masse du contenu d'une boîte de conserve suit la loi normale d'espérance 400 et de variance 25, et si celle du contenant suit la loi normale d'espérance 60 et de variance 4, alors (avec l'hypothèse, naturelle, d'indépendance) la masse totale de la boîte de conserve suit la loi normale d'espérance 460 et de variance 29 ; son écart type est environ 5,4 grammes.

Stabilité de la loi normale par la moyenne

Stabilité de la loi normale par la combinaison

Mélange de populations

Il ne faut pas confondre la somme de deux variables gaussiennes indépendantes, qui reste une variable gaussienne, et le mélange de deux populations gaussiennes, qui n'est pas une population gaussienne (voir aussi modèle de mixture gaussienne).

Un mélange constitué de

  • 2/3 d'individus dont la taille suit une loi normale de moyenne 160 cm et d'écart type 15 cm, de densité f
  • 1/3 d'individus dont la taille suit une loi normale de moyenne 130 cm et d'écart type 10 cm, de densité g

suit une loi de moyenne (2/3)×160+(1/3)×130 = 150 cm, mais non gaussienne, de densité

h = (2/3) f + (1/3) g.

Sur la représentation graphique de la densité h, on peut apercevoir une double bosse : la distribution est bimodale.

Double Gauss.png

Simulation

Il est possible de simuler, par exemple par ordinateur, un tirage aléatoire dont la loi est normale.

Les logiciels ou les langages de programmation possèdent en général un générateur de nombres pseudo-aléatoires ayant une distribution uniforme sur ]0,1[. On cherche donc une fonction transformant ces nombres. De manière générale, on peut prendre la fonction réciproque de la fonction de répartition : en l'occurrence, si la variable aléatoire U suit la loi uniforme sur ]0,1[, alors la variable aléatoire \ \Phi^{-1}(U) suit la loi normale centrée réduite ; cependant, cette méthode est tout à fait malcommode, faute d'expressions simples des fonctions \ \Phi et \ \Phi^{-1}. En revanche, on peut facilement utiliser la méthode décrite ci-dessous.

Cas de la loi normale à une dimension

Pour simuler la loi normale à une dimension (celle qui a été étudiée jusqu'ici), on peut utiliser la méthode de Box-Muller dont voici le principe :
Si U1 et U2 sont des variables aléatoires indépendantes qui suivent la loi uniforme sur ]0,1[, alors on démontre assez aisément que les variables aléatoires :

T_{1}=\sqrt{-2\ln U_{1}}\, \cos (2\pi U_{2})
T_{2}=\sqrt{-2\ln U_{1}}\, \sin (2\pi U_{2})

suivent toutes deux la loi normale centrée réduite (et sont indépendantes).

Les variables aléatoires X_1 = \mu + \sigma\, T_1 et X_2 = \mu + \sigma\, T_2 suivent donc toutes deux la loi normale \, \mathcal{N}(\mu,\, \sigma^2), et indépendamment l'une de l'autre.

Voir aussi

Cas de la loi multinormale

La loi multinormale ou loi normale sur \R^n étend la loi normale à un vecteur aléatoire X = (X_1,\, X_2,\dots,\, X_n) à valeurs dans \R^n.

Elle est caractérisée par deux paramètres : un vecteur m de moyennes, et une matrice de variance-covariance V (carrée d'ordre n).

Pour simuler une loi multinormale non dégénérée de paramètres m et V, on utilise la méthode suivante :

  1. Soit T un vecteur aléatoire à n composantes gaussiennes centrées réduites et indépendantes (la loi de T, multinormale, a pour moyenne le vecteur nul et pour matrice de variance-covariance la matrice identité).
  2. Soit L la matrice résultant de la factorisation de Cholesky de la matrice V.
  3. Alors, le vecteur aléatoire X = m + LT suit la loi multinormale de moyenne m et de variance-covariance V
(on convient dans cette dernière relation d'identifier chaque élément de \R^n avec la matrice colonne de ses composantes en base canonique).

Le calcul de l'intégrale de Gauss

On trouvera ce calcul (utilisant une intégrale double) dans l'article sur l'intégrale de Gauss.

Annexes

Notes et références

  1. a  et b on a aussi utilisé la notation \mathcal{N}(\mu,\, \sigma), mais cette notation, qui n'est pas cohérente avec la notation habituelle de la loi (multi-)normale sur \ \R^n, tend à céder la place à la notation "classique" \mathcal{N}(\mu,\, \sigma^2)

Articles connexes

  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques
Ce document provient de « Loi normale ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Loi normale gaussienne de Wikipédia en français (auteurs)

Игры ⚽ Нужно сделать НИР?

Regardez d'autres dictionnaires:

  • Loi Normale — Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi Normale Reduite — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi normale — Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi Normale Multidimensionnelle — Distribution normale multidimensionnelle Densité de probabilité / Fonction de masse Fonction de répartition Paramètres moyenne (vecteur réel) …   Wikipédia en Français

  • Loi normale multidimensionnelle — Distribution normale multidimensionnelle Paramètres moyenne (vecteur réel) Σ matrice de variance covariance (matrice définie positive réelle ) Support …   Wikipédia en Français

  • Loi de Gauss — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi de Laplace-Gauss — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi gaussienne — Loi normale Distribution gaussienne Densité de probabilité / Fonction de masse La courbe rouge représente la fonction φ (voir texte), densité de probabilité d une variable suivant une loi normale centrée réduite Fonction de répartition …   Wikipédia en Français

  • Loi binomiale — Binomiale Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi multinormale — Loi normale multidimensionnelle Distribution normale multidimensionnelle Densité de probabilité / Fonction de masse Fonction de répartition Paramètres moyenne (vecteur réel) …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”