- Convergence de variables aléatoires
-
Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires. Ce résultat est connu sous le nom de loi forte des grands nombres.
Dans cet article, on suppose que (Xn) est une suite de variables aléatoires réelles, que X est une variable aléatoire réelle, et que toutes ces variables sont définies sur un même espace probabilisé .Sommaire
Convergence en loi
Soient F1, F2, ... la suite des fonctions de répartition associées aux variables aléatoires réelles X1, X2, ..., et F la fonction de répartition de la variable aléatoire réelle X. Autrement dit, Fn est définie par Fn(x)=P(Xn ≤ x), et F par F(x)=P(X ≤ x).
La suite Xn converge vers X en loi, ou en distribution, si
-
- pour tout réel a où F est continue.
Puisque F(a) = P(X ≤ a), cela signifie que la probabilité que X appartienne à un certain intervalle est très similaire à la probabilité que Xn soit dans cet intervalle pour n suffisamment grand. La convergence en loi est souvent notée en ajoutant la lettre (ou pour distribution) au-dessus de la flèche de convergence:
La convergence en loi est la forme la plus faible au sens où, en général, elle n'implique pas les autres formes de convergence définies ci-dessous, alors que ces autres formes de convergence impliquent la convergence en loi. C'est ce type de convergence qui est utilisé dans le théorème de la limite centrale.
De manière équivalente, la suite (Xn) converge en loi vers X si et seulement si pour toute fonction continue bornée
Théorème de continuité de Paul Lévy — Soit φn(t) la fonction caractéristique de Xn et φ(t) celle de X. Alors
Autrement dit, (Xn) converge en loi vers X ssi la fonction caractéristique de la variable aléatoire réelle Xn converge simplement vers la fonction caractéristique de la variable aléatoire réelle X.
exemple: Théorème de la limite centrale :La moyenne d'une suite de variables aléatoires centrées, indépendantes et de même loi, une fois renormalisée par √n converge en loi vers la loi normale
exemple: convergence de la loi de Student :La loi de Student de paramètre k converge, lorsque k tend vers +∞, vers la loi de Gauss:
Dans ce cas, on peut aussi utiliser le lemme de Scheffé, qui est un critère de convergence d'une suite de variables aléatoires à densité vers une variable aléatoire à densité.
exemple: loi dégénérée :La suite[1] converge en loi vers une variable aléatoire X0 dite dégénérée, qui prend une seule valeur (0) avec probabilité 1 (on parle parfois de masse de Dirac en 0, notée δ0) :
Convergence en probabilité
Définition — On dit que Xn converge vers X en probabilité si,
La convergence en probabilité est parfois notée , ou encore
La convergence en probabilité est utilisée dans la loi faible des grands nombres.
La convergence en probabilité implique la convergence en loi. On peut donc énoncer le théorème suivant:
Théorème — Xn converge vers X en probabilité Xn converge vers X en loi.
DémonstrationPour effectuer la démonstration, le lemme suivant est utile
Soient X, Y des variables aléatoires réelles, c un réel et ε > 0. Alors
Lemme —
Démonstration du lemmecar
Pour tout ε > 0, en raison de ce lemme, on a:
On a donc
Soit a un point de continuité de FX. On fixe un réel ε' > 0. Par continuité de FX en a, il existe un réel tel que et .De la convergence de (Xn)n en probabilité vers X, on peut en déduire l'existence d'un entier N tel que : si .
D'où : .
Il existe des conditions suffisantes de convergence en probabilité vers une constante[2], portant sur l'espérance et la variance des termes de la suite :
Théorème — .
DémonstrationOn veut montrer que
On se sert de l'inégalité de Markov pour les variables aléatoires réelles admettant un moment d'ordre 2 :
Théorème —
D'où, quels que soient le réel strictement positif ε et l'indice n :
Il en découle que :
si
Exemple :Ce théorème est très utile pour démontrer la loi faible des grands nombres de manière simple: il suffit de voir que si est une suite de variables aléatoires indépendantes et identiquement distribuées d'espérance μ et de variance σ2 et que , alors:
- (voir preuve sur la page variance)
Donc
La réciproque n'est pas vraie :
- En statistiques, un estimateur peut être biaisé mais cependant convergent !
- Dans l'exemple suivant, la suite, d'espérance constante, converge vers une constante différente de cette espérance ; la suite des variances tend vers l'infini.
Exemple :Soit une suite de variables aléatoires telle que chaque Xn prenne pour valeurs 0 et n et que :
- , donc .
On voit qu'elle converge en probabilité : .
Cependant, et .
Ainsi les conditions énoncées plus haut de convergence en probabilité vers une constante ne sont pas nécessaires[3].
Convergence presque sûre
On dit que Xn converge presque sûrement ou presque partout ou avec probabilité 1 ou fortement vers X si
Définition —
Cela signifie que les valeurs de Xn approchent la valeur de X, au sens où (cf. presque partout) l'événement sur lequel Xn ne converge pas vers X a une probabilité nulle.
On note souvent cela ou (almost surely en anglais).
On peut expliciter la définition de la convergence presque sûre en utilisant l'espace probabilisé et le concept de variable aléatoire comme fonction de Ω dans :
Théorème — Xn converge vers X presque sûrement converge vers X en probabilité
La convergence presque sûre est utilisée dans la loi forte des grands nombres.
Convergence en moyenne d'ordre r
Soit r > 0. On dit que Xn converge vers X en moyenne d'ordre r ou en norme Lr si E|Xn|r < ∞ pour tout n et
-
- .
La convergence en moyenne d'ordre r nous dit que l'espérance de la puissance r-ième de la différence entre Xn et X converge vers zéro.
Pour r =2, on parle de convergence en moyenne quadratique
Théorème — Xn converge vers X en norme Lr converge vers X en probabilité.
DémonstrationOn se sert de l'inégalité de Markov pour les variables aléatoires réelles admettant un moment d'ordre r :
Théorème —
On a donc : , d'où découle le résultat annoncé.
Théorème — Pour r > s ≥ 1, la convergence en norme Lr implique la convergence en norme Ls.
On a également le résultat suivant:
Théorème — Xn converge vers une constante c en moyenne quadratique .
DémonstrationOn a vu plus haut que :
Convergence d'une fonction d'une variable aléatoire
Un théorème très pratique, désigné en anglais généralement sous le nom de Mapping theorem (en), établit qu'une fonction g continue appliquée à une variable qui converge vers X convergera vers g(X) pour tous les modes de convergence:
Théorème — Mapping theorem[4] Soit une fonction continue en tout point d'un ensemble C tel que :
- Si
- Si
- Si
Exemple :En statistiques, un estimateur convergent de la variance σ2 est donné par:
On sait alors par le continuous mapping theorem que l'estimateur de l'écart type est convergent, car la fonction racine est une fonction continue.
Implications réciproques
À quelques exceptions près, les implications mentionnées dans les sections précédentes n'ont pas de réciproque, à proprement parler. Voici toutefois quelques propriétés utiles qu'on pourrait qualifier de « semblants de réciproques » :
- Si Xn converge en loi vers une constante réelle c, alors Xn converge en probabilité vers c.
- Si Xn converge presque sûrement vers X, alors Xn converge en loi vers X, et la réciproque est fausse, mais il existe un théorème (appelé « théorème de représentation de Skorokhod (en) ») qui est une forme de réciproque, voir, dans Fonction de répartition, la section Convergence en loi et fonction de répartition, et particulièrement (1. implique 3.).
- Si Xn converge en probabilité vers X, et si P(|Xn| ≤ b) = 1 pour tout n et un certain b, alors Xn converge en moyenne d'ordre r vers X pour tout r ≥ 1. Plus généralement, si Xn converge en probabilité vers X, et si la famille (|X|pn) est uniformément intégrable, alors Xn converge en moyenne d'ordre p vers X.
- Si pour tout ε > 0,
alors Xn converge presque sûrement vers X. En d'autres termes, si Xn converge en probabilité vers X suffisamment rapidement (i.e. la série ci-dessus converge pour tout ε > 0), alors Xn converge aussi presque sûrement vers X. Cela résulte d'une application directe du théorème de Borel-Cantelli.
- Soit une suite de variables aléatoires réelles indépendantes. Pour tout n, on pose :
-
- .
Alors la convergence presque sûre de la suite équivaut à sa convergence en probabilité ; autrement dit, la convergence presque sûre de la série de terme général Xn équivaut à sa convergence en probabilité.
Notes
- Pour plus de détail sur cet exemple: voir Davidson et McKinnon (1993, chap. 4)
- Ce sont en fait des conditions nécessaires et suffisantes de convergence en moyenne quadratique vers cette même constante, cf. infra.
- En fait, cet exemple montre qu'une suite de variables aléatoires réelles peut converger en probabilité vers une constante sans converger en moyenne quadratique.
- Tiré de Vaart (1998, p.7)
Références
- (en) Russell Davidson, McKinnon, James, Estimation and Inference in Econometrics, New York, Oxford University Press, 1993 (ISBN 978-0-19-506011-9) (LCCN 92012048), p. 874
- G.R. Grimmett and D.R. Stirzaker (1992). Probability and Random Processes, 2nd Edition. Clarendon Press, Oxford, p. 271-285 (ISBN 0-19-853665-8)
- (en) Adrianus Willem van der Vaart, Asymptotic Statistics, Cambridge, Cambridge University Press, 1998, 1re éd., relié (ISBN 978-0-521-49603-2) (LCCN 98015176), p. 443
- Portail des probabilités et des statistiques
-
Wikimedia Foundation. 2010.