Inégalité de Kolmogorov

Inégalité de Kolmogorov

L'inégalité de Kolmogorov[1] , due à Andreï Kolmogorov, est une étape essentielle de sa démonstration de la loi forte des grands nombres, un des principaux théorèmes de la théorie des probabilités. C'est l'étape où il utilise l'hypothèse d'indépendance (et, sans le dire, la notion de temps d'arrêt).

Enoncé

Inégalité de Kolmogorov. — Soit une suite \ \scriptstyle \left(Y_{n}\right)_{n\ge 1}\ de v.a.r. indépendantes et centrées. Posons

W_{n}=Y_{1}+Y_{2}+\cdots+Y_{n}.

Alors, pour tout \ \scriptstyle x>0\ ,

\mathbb{P}\left(\sup\left\{\left|W_{n}\right|\,|\,n\ge 1\right\}>x\right)\le \frac{\sum_{n\ge 1}\text{Var}\left(Y_{n}\right)}{x^2}.
Remarques  :
  • L'inégalité
\mathbb{P}\left(\left|W_{n}\right|>x\right)\le \frac{\sum_{n\ge 1}\text{Var}\left(Y_{n}\right)}{x^2}
est une conséquence immédiate de l'inégalité de Bienaymé-Tchebychev. La présence du sup rend l'inégalité beaucoup plus précise, donc plus difficile à démontrer.
  • Contrairement à la loi forte des grands nombres, l'inégalité de Kolmogorov ne requiert pas des variables de même loi.

Démonstration

Si \ \scriptstyle \sum_{n\ge 1}\text{Var}\left(Y_{n}\right)=+\infty\ , l'inégalité est vérifiée. Dans la suite, on suppose que

\sum_{n\ge 1}\text{Var}\left(Y_{n}\right)<+\infty.

On pose

\sigma=\left\{\begin{array}{lll}
+\infty&\ \ &\text{si }\left\{k\ge 1\ |\ \left|W_{k}\right|>x\right\}=\emptyset,
\\
&&
\\
\inf\left\{k\ge 1\ |\ \left|W_{k}\right|>x\right\}&\ \ &\text{sinon.}
\end{array}\right.

On remarque alors que, pour \ \scriptstyle k\le n\ ,


W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}.

En effet \ \scriptstyle W_{n}-W_{k}=Y_{k+1}+Y_{k+2}+\dots+Y_{n}\ , alors que

\begin{align}
\left\{\sigma=k\right\}
&=
\left\{\left|W_{1}\right|\le x, \left|W_{2}\right|\le x,\dots,\left|W_{k-1}\right|\le x\text{ et }\left|W_{k}\right|> x\right\}
\\
&=
 \left\{\left|Y_{1}\right|\le x,\ \left|Y_{1}+Y_{2}\right|\le x,\ \dots,\ \left|Y_{1}+\dots+Y_{k-1}\right|\le x\text{ et }\left|Y_{1}+\dots+Y_{k}\right|> x \right\}.
\end{align}

Ainsi pour deux boréliens quelconques \ \scriptstyle A\ et \ \scriptstyle B\ , les deux évènements

\left\{W_{k}1_{\sigma=k}\in A\right\}\text{ et }\left\{W_{n}-W_{k}\in B\right\}

appartiennent aux tribus \ \scriptstyle \sigma\left(Y_{1},Y_{2},\dots,Y_{k}\right)\ et \ \scriptstyle \sigma\left(Y_{k+1},Y_{k+2},\dots,Y_{n}\right)\ , respectivement. Ils sont donc indépendants en vertu du lemme de regroupement, ce qui implique bien \ \scriptstyle
W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}
. On a

\begin{align}
\sum_{k=1}^n\,\text{Var}\left(Y_{k}\right)
&=
\text{Var}\left(W_{n}\right)\ =\ \mathbb{E}\left[W_{n}^2\right]
\\
&\ge
\mathbb{E}\left[W_{n}^21_{\sigma<+\infty}\right]
\\
&=
\sum_{k\ge1}\ \mathbb{E}\left[W_{n}^2\ 1_{\sigma=k}\right]
\\
&\ge
\sum_{k=1}^n\ \mathbb{E}\left[W_{n}^21_{\sigma=k}\right]
\\
&=
\sum_{k=1}^n\ \mathbb{E}\left[\left(W_{n}-W_{k}+W_{k}\right)^21_{\sigma=k}\right]
\\
&\ge
\sum_{k=1}^n\ \mathbb{E}\left[W_{k}^21_{\sigma=k}\right]+2\mathbb{E}\left[W_{n}-W_{k}\right]\mathbb{E}\left[W_{k}1_{\sigma=k}\right]
\\
&=
\sum_{k=1}^n\ \mathbb{E}\left[W_{k}^21_{\sigma=k}\right]
\\
&\ge
\sum_{k=1}^n\ \mathbb{E}\left[x^21_{\sigma=k}\right]
\\
&=
x^2\mathbb{P}\left(\sigma\le n\right),
\end{align}

où la troisième inégalité s'obtient en développant le carré en deux termes carrés (dont l'un est supprimé pour minorer l'expression précédente) et un double produit (de deux variables indépendantes, en vertu de \ \scriptstyle
W_{k}1_{\sigma=k}\ \bot\ W_{n}-W_{k}
). L'égalité suivante tient à ce que \ \scriptstyle W_{n}-W_{k}\ est centrée (comme somme de v.a. centrées), et la dernière inégalité découle de la définition du temps d'arrêt \ \scriptstyle \sigma\  : par définition, au temps \ \scriptstyle \sigma\ , on a \ \scriptstyle W_{\sigma}>x\ . En faisant tendre \ \scriptstyle n\ vers l'infini on obtient

\begin{align}
\sum_{k\ge 1}\,\text{Var}\left(Y_{k}\right)
&\ge
x^2\ \mathbb{P}\left(\sigma< +\infty\right),
\\
&=
x^2\ \mathbb{P}\left(\left\{k\ge 1\ |\ \left|W_{k}\right|>x\right\}\neq\emptyset\right),
\\
&=
x^2\ \mathbb{P}\left(\sup\left\{\left|W_{n}\right|\,|\,n\ge 1\right\}>x\right),
\end{align}

C.Q.F.D.

Notes

  1. On peut en trouver l'énoncé, la démonstration et le contexte, page 248 du livre de P. Billingley, Probability and measure, Wiley, 1re édition, 1979.


  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Inégalité de Kolmogorov de Wikipédia en français (auteurs)

Игры ⚽ Поможем написать реферат

Regardez d'autres dictionnaires:

  • Inegalite (probabilite) — Inégalité (probabilité) Pour les articles homonymes, voir Inégalité. Les principales Inégalités (probabilistes) sont : L Inégalité de Bienaymé Tchebychev. L inégalité de Schwarz. L inégalité de Kolmogorov …   Wikipédia en Français

  • Inégalité (probabilité) — Pour les articles homonymes, voir Inégalité. Les principales Inégalités (probabilistes) sont : L Inégalité de Bienaymé Tchebychev. L inégalité de Schwarz. L inégalité de Kolmogorov …   Wikipédia en Français

  • Andreï Kolmogorov — Andreï Nikolaïevitch Kolmogorov Naissance 25 Avril 1903 Tambov (Empire russe) Décès 20 Octobre 1987 (84 ans) Moscou (Union soviétique) Nationalité …   Wikipédia en Français

  • Complexité de Kolmogorov — La complexité de Kolmogorov (nommée d après le mathématicien Andreï Kolmogorov), nommée aussi complexité aléatoire, ou complexité algorithmique, est une fonction permettant de quantifier la taille du plus petit algorithme[1] nécessaire pour… …   Wikipédia en Français

  • Complexite de Kolmogorov — Complexité de Kolmogorov La complexité de Kolmogorov (nommée d après le mathématicien Andreï Kolmogorov), nommée aussi complexité aléatoire, ou complexité algorithmique, est une fonction (plus précisément un ensemble de fonctions) permettant d… …   Wikipédia en Français

  • Complexité De Kolmogorov — La complexité de Kolmogorov (nommée d après le mathématicien Andreï Kolmogorov), nommée aussi complexité aléatoire, ou complexité algorithmique, est une fonction (plus précisément un ensemble de fonctions) permettant d évaluer la complexité de… …   Wikipédia en Français

  • Complexité de kolmogorov — La complexité de Kolmogorov (nommée d après le mathématicien Andreï Kolmogorov), nommée aussi complexité aléatoire, ou complexité algorithmique, est une fonction (plus précisément un ensemble de fonctions) permettant d évaluer la complexité de… …   Wikipédia en Français

  • Inégalités (probabilistes) — Inégalité (probabilité) Pour les articles homonymes, voir Inégalité. Les principales Inégalités (probabilistes) sont : L Inégalité de Bienaymé Tchebychev. L inégalité de Schwarz. L inégalité de Kolmogorov …   Wikipédia en Français

  • Loi forte des grands nombres — Une loi forte des grands nombres est une loi mathématique selon laquelle la moyenne des n premiers termes d une suite de variables aléatoires converge presque sûrement vers une constante (non aléatoire), lorsque n tend vers l infini. Lorsque ces… …   Wikipédia en Français

  • Loi Forte Des Grands Nombres — La loi forte des grands nombres est un énoncé mathématique énonçant la moyenne d une suite de variables aléatoires converge presque sûrement vers la même constante que l espérance de la moyenne, sous certaines conditions (sur la dépendance, sur l …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”