Théorèmes limites (probabilités)

Théorèmes limites (probabilités)

Théorème de la limite centrale

Page d'aide sur l'homonymie Pour les articles homonymes, voir TCL.

Le théorème de la limite centrale (appelé plus correctement théorème central limite, sans e à central puisque c'est le théorème qui est central) est un résultat sur la convergence en probabilités d'une suite de variables aléatoires. Intuitivement, ce résultat affirme que toute somme de variables aléatoires indépendantes et identiquement distribuées tend vers une variable aléatoire gaussienne. Il admet plusieurs généralisations qui donnent la convergence de cette somme sous des hypothèses beaucoup plus faibles.

Ces généralisations ne nécessitent pas des lois identiques mais font appel à des conditions qui assurent qu'aucune des variables n'exerce une influence significativement plus importante que les autres. Telles sont la condition de Lindeberg et la condition de Lyapounov. D'autres généralisations autorisent même une dépendance «faible». De plus, une généralisation due à Gnedenko et Kolmogorov stipule que la somme d'un certain nombre de variables aléatoires avec une queue de distribution décroissante selon 1 / | x | α + 1 avec 0 < α < 2 (ayant donc une variance infinie) tend vers une loi de Lévy tronquée symétrique et stable quand le nombre de variables augmente. Cet article se limitera au théorème de la limite centrale concernant les lois à variance finie.

Ainsi, ce théorème et ses généralisations offrent une explication à l'omniprésence de la loi normale dans la nature : de nombreux phénomènes sont dus à l'addition d'un grand nombre de petites perturbations aléatoires.

Sommaire

« Le » théorème de la limite centrale

Soit X_1, X_2, \cdots une suite de variables aléatoires définies sur le même espace de probabilité, suivant la même loi D et indépendantes. Supposons que l'espérance μ et l'écart-type σ de D existent et soient finis (\sigma \neq 0).

Considérons la somme S_n = X_1 + X_2 + \cdots + X_n. Alors l'espérance de Sn est nμ et son écart-type vaut \sigma \sqrt{n} . De plus, pour parler de manière informelle, la loi de Sn tend vers la loi normale  \mathcal{N} (n \mu , n \sigma^2) quand n tend vers l'infini.

Afin de clarifier cette idée de convergence, nous allons poser

Z_n = \frac{S_n - n \mu}{\sigma \sqrt{n}}.

de sorte que l'espérance et l'écart-type de Zn valent respectivement 0 et 1 : la variable est ainsi dite centrée et réduite.

Alors la loi de Zn converge vers la loi normale centrée réduite  \mathcal{N} (0 , 1) lorsque n tend vers l'infini (il s'agit de la convergence en loi). Cela signifie que si Φ est la fonction de répartition de  \mathcal{N} (0 , 1), alors pour tout réel z :

\lim_{n \to \infty} \mbox{P}(Z_n \le z) = \Phi(z),

ou, de façon équivalente :

\lim_{n\to\infty}\mbox{P}\left(\frac{\overline{X}_n-\mu}{\sigma/\sqrt{n}}\leq z\right)=\Phi(z)

\overline{X}_n=S_n/n=(X_1+\cdots+X_n)/n

Démonstration du théorème de la limite centrale

Pour un théorème d'une telle importance en statistiques et en probabilité appliquée, il existe une démonstration particulièrement simple utilisant les fonctions caractéristiques. Cette démonstration ressemble à celle d'une des lois des grands nombres. Pour une variable aléatoire Y d'espérance 0 et de variance 1, la fonction caractéristique de Y admet le développement limité :

\varphi_Y(t) = 1 - {t^2 \over 2} + o(t^2), \quad t \rightarrow 0.

Si Yi vaut \frac{X_i - \mu}{\sigma}, il est facile de voir que la moyenne centrée réduite des observations X1, X2, ..., Xn est simplement :

Z_n = \frac{\overline{X}_n-\mu}{\sigma/\sqrt{n}} = \sum_{i=1}^n {Y_i \over \sqrt{n}}.

D'après les propriétés élémentaires des fonctions caractéristiques, la fonction caractéristique de Zn est

\left[\varphi_Y\left({t \over \sqrt{n}}\right)\right]^n = \left[ 1 - {t^2 
\over 2n} + o\left({t^2 \over n}\right) \right]^n \, \rightarrow \, e^{-t^2/2} lorsque n \to +\infty.

Mais cette limite est la fonction caractéristique de la loi normale centrée réduite N(0,1), d'où l'on déduit le théorème de la limite centrale grâce au théorème de continuité de Lévy, qui affirme que la convergence des fonctions caractéristiques implique la convergence en loi.

Convergence vers la limite

La convergence de la fonction de répartition de Zn est uniforme, en vertu du deuxième théorème de Dini. Si le moment d'ordre 3, E[(X − μ)3] existe et est fini, alors la vitesse de convergence est au moins d'ordre 1/\sqrt{n} (voir le théorème de Berry-Esseen (en)).

Images d'une loi lissées par sommation qui montrent la distribution de la loi originale et trois sommations successives (obtenues par convolution) :

Central limit thm 1.png Central limit thm 2.png Central limit thm 3.png Central limit thm 4.png

Dans les applications pratiques, ce théorème permet en particulier de remplacer une somme de variables aléatoires en nombre assez grand mais fini par une approximation normale, généralement plus facile à manipuler. Il est donc intéressant de voir comment la somme s'approche de la limite. Les termes utilisés sont expliqués dans Variable aléatoire.

Une somme de variables continues est une variable continue dont on peut comparer la densité de probabilité à celle de la limite normale.

Theoreme de la limite centrale.png

Avec une somme de variables discrètes, il est parfois commode de définir une pseudo-densité de probabilité mais l'outil le plus efficace est la fonction de probabilité représentée par un diagramme en bâtons. On peut constater graphiquement une certaine cohérence entre les deux diagrammes, difficile à interpréter. Dans ce cas, il est plus efficace de comparer les fonctions de répartition.

D'autre part, l'approximation normale est particulièrement efficace au voisinage des valeurs centrales. Certains disent même qu'en matière de convergence vers la loi normale, l'infini commence souvent à six.

La précision se dégrade à mesure qu'on s'éloigne de ces valeurs centrales. C'est particulièrement vrai pour une somme de variables positives par nature : la loi normale fait toujours apparaître des valeurs négatives avec des probabilités faibles mais non nulles. Même si c'est moins choquant, cela reste vrai en toutes circonstances : alors que toute grandeur physique est nécessairement bornée, la loi normale qui couvre un intervalle infini n'est qu'une approximation utile.

Enfin, pour un nombre donné de termes de la somme, l'approximation normale est d'autant meilleure que la distribution est plus symétrique.

Application à la statistique mathématique

Ce théorème de probabilités possède une interprétation en statistique mathématique. Cette dernière associe une loi de probabilité à une population. Chaque élément extrait de la population est donc considéré comme une variable aléatoire et, en réunissant un nombre n de ces variables supposées indépendantes, on obtient un échantillon. La somme de ces variables aléatoires divisée par n donne une nouvelle variable nommée la moyenne empirique. Celle-ci, une fois réduite, tend vers une variable normale réduite lorsque n tend vers l'infini.

Autres formulations du théorème

Densités de probabilité

La densité de probabilité de la somme de plusieurs variables indépendantes s'obtient par convolution de leurs densités (si celles-ci existent). Ainsi on peut interpréter le théorème de la limite centrale comme une formulation des propriétés des densités de probabilité soumises à une convolution : sous les conditions établies précédemment, la convoluée d'un certain nombre de densités de probabilité tend vers la densité normale lorsque leur nombre croît indéfiniment.

Comme la fonction caractéristique d'une convolution est le produit des fonctions caractéristiques des variables en cause, le théorème de la limite centrale peut se formuler d'une manière différente : sous les conditions précédentes, le produit des fonctions caractéristiques de plusieurs densités de probabilité tend vers la fonction caractéristique de la loi normale lorsque le nombre de variables croît indéfiniment.

Produits de variables aléatoires

Le théorème de la limite centrale nous dit à quoi il faut s'attendre en matière de sommes de variables aléatoires indépendantes ; mais qu'en est-il des produits ? Eh bien, le logarithme d'un produit (à facteurs strictement positifs) est la somme des logarithmes des facteurs, de sorte que le logarithme d'un produit de variables aléatoires (à valeurs strictement positives) tend vers une loi normale, ce qui entraîne une loi log-normale pour le produit lui-même. Bon nombre de grandeurs physiques (en particulier la masse et la longueur, c'est une question de dimension, ne peuvent être négatives) sont le produit de différents facteurs aléatoires, de sorte qu'elles suivent une loi log-normale. Il en va de même pour le cours en Bourse d'un actif risqué.

Les théorèmes de la limite centrale

Condition de Lyapounov

Soit Xn une séquence de variables définies sur le même espace de probabilité. Supposons que Xn ait une espérance finie μn et un écart-type fini σn. Nous définirons

s_n^2 = \sum_{i = 1}^n \sigma_i^2.

Supposons que les moments centrés d'ordre 3

r_n^3 = \sum_{i = 1}^n \mbox{E}\left({\left| X_i - \mu_i \right|}^3 \right)

soient finis pour tout n et que

\lim_{n \to \infty} \frac{r_n}{s_n} = 0.

(C'est la condition de Lyapounov ).

Considérons de nouveau la somme S_n = X_1 + X_2 + \cdots + X_n. L'espérance mathématique de Sn est

m_n = \sum_{i=1}^n \mu_i

et son écart-type sn. Si nous normalisons Sn en posant

Z_n = \frac{S_n - m_n}{s_n}

alors la loi de Zn converge vers la loi normale centrée réduite N(0,1) comme ci-dessus.

Condition de Lindeberg

Avec les mêmes définitions et les mêmes notations que précédemment, nous pouvons remplacer la condition de Lyapounov par la suivante qui est plus faible (Lindeberg 1920). Pour tout ε > 0


  \lim_{n \to \infty} \sum_{i = 1}^{n} \mbox{E}\left(
    \frac{(X_i - \mu_i)^2}{s_n^2}
    :
    \left| X_i - \mu_i \right| > \epsilon s_n
  \right) = 0

où E( U : V > c) représente l'espérance conditionnelle : l'espérance de U sous la condition V > c. Alors la loi de Zn converge vers la loi normale centrée réduite N(0,1).

Cas des variables dépendantes

Il existe quelques théorèmes qui traitent le cas de sommes de variables dépendantes, par exemple le théorème de la limite centrale m-dépendante, le théorème de la limite centrale des martingales et le théorème de la limite centrale pour les processus de mélange.

Intérêt de ce théorème

On peut parfois lire dans la presse générale que la courbe en cloche représente la loi du hasard, ce qui n'a pas grande signification. Le succès sans égal de la loi de Gauss est la conséquence directe du théorème de la limite centrale et il est renforcé par la commodité relative d'utilisation de cette loi.

En elle-même, la convergence vers la loi normale de nombreuses sommes de variables aléatoires lorsque leur nombre tend vers l'infini n'intéresse que le mathématicien. Pour le praticien, il est intéressant de s'arrêter un peu avant la limite : la somme d'un grand nombre de ces variables est presque gaussienne, ce qui fournit une approximation souvent plus facilement utilisable que la loi exacte.

En s'éloignant encore plus de la théorie, on peut dire que bon nombre de phénomènes naturels sont dus à la superposition de causes nombreuses, plus ou moins indépendantes. Il en résulte que la loi normale les représente de manière raisonnablement efficace.

À l'inverse, on peut dire qu'aucun phénomène concret n'est vraiment gaussien car il ne peut dépasser certaines limites, en particulier s'il est à valeurs positives.

Liens externes

Sur les autres projets Wikimedia :

  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques
Ce document provient de « Th%C3%A9or%C3%A8me de la limite centrale ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Théorèmes limites (probabilités) de Wikipédia en français (auteurs)

Игры ⚽ Нужен реферат?

Regardez d'autres dictionnaires:

  • PROBABILITÉS (CALCUL DES) — Le calcul des probabilités est certainement l’une des branches les plus récentes des mathématiques, bien qu’il ait en fait trois siècles et demi d’existence. Après s’être cantonné dans l’étude des jeux de hasard, il s’est introduit dans presque… …   Encyclopédie Universelle

  • Théorèmes centraux limites — Théorème de la limite centrale Pour les articles homonymes, voir TCL. Le théorème de la limite centrale (appelé plus correctement théorème central limite, sans e à central puisque c est le théorème qui est central) est un résultat sur la… …   Wikipédia en Français

  • Théorèmes élémentaires sur les limites — Opérations sur les limites Cet article fait partie de la série Mathématiques élémentaires Algèbre Logique Arithmétique Probabilités …   Wikipédia en Français

  • Axiomes Des Probabilités — Dans la théorie des probabilités, une mesure de probabilité (ou plus brièvement probabilité) est une application qui à un évènement quelconque lié à l expérience aléatoire associe un nombre réel (noté ) définie de telle manière qu elle satisfasse …   Wikipédia en Français

  • Axiomes des probabilites — Axiomes des probabilités Dans la théorie des probabilités, une mesure de probabilité (ou plus brièvement probabilité) est une application qui à un évènement quelconque lié à l expérience aléatoire associe un nombre réel (noté ) définie de telle… …   Wikipédia en Français

  • Theorie des probabilites — Théorie des probabilités Courbes de probabilité. La Théorie des probabilités est l étude mathématique des phénomènes caractérisés par le hasard et l incertitude. Les objets centraux de la théorie des probabilités sont les variables aléatoires,… …   Wikipédia en Français

  • Evenement (probabilites) — Événement (probabilités) En théorie des probabilités, un événement est un ensemble de résultats d une épreuve aléatoire (un sous ensemble de l univers). Un événement étant souvent défini par une proposition, nous devons pouvoir dire, pour tout… …   Wikipédia en Français

  • Évènement (probabilités) — Événement (probabilités) En théorie des probabilités, un événement est un ensemble de résultats d une épreuve aléatoire (un sous ensemble de l univers). Un événement étant souvent défini par une proposition, nous devons pouvoir dire, pour tout… …   Wikipédia en Français

  • Variance (statistiques et probabilites) — Variance (statistiques et probabilités) Pour les articles homonymes, voir Variance. En statistique et probabilité, la variance est une mesure arbitraire servant à caractériser la dispersion d une distribution ou d un échantillon. Sommaire 1… …   Wikipédia en Français

  • Liste Des Théorèmes — par ordre alphabétique. Pour l établissement de l ordre alphabétique, il a été convenu ce qui suit : Si le nom du théorème comprend des noms de mathématiciens ou de physiciens, on se base sur le premier nom propre cité. Si le nom du théorème …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”