Densite de probabilite

Densite de probabilite

Densité de probabilité

Page d'aide sur l'homonymie Pour les articles homonymes, voir Densité (homonymie).

En théorie des probabilités ou en statistiques, une densité de probabilité est une fonction qui permet de représenter une loi de probabilité sous forme d'intégrales.

Formellement, une loi de probabilité possède une densité ƒ, si ƒ est une fonction définie sur \ \scriptstyle\mathbb{R},\ positive ou nulle et Lebesgue-intégrable, telle que la probabilité de l'intervalle [a, b] soit donnée par

\int_a^b f(x)\,dx

pour tous nombres a<b. Par exemple, si la variable X a pour densité de probabilité la fonction ƒ, la probabilité que la variable X soit dans l'intervalle [4,3, 7,8] sera

\Pr(4,3 \leq X \leq 7,8) = \int_{4,3}^{7,8} f(x)\,dx.

Cela implique que l'intégrale de ƒ sur tout \ \mathbb{R}\ donne 1. Réciproquement, pour toute fonction ƒ positive ou nulle et Lebesgue-intégrable, d'intégrale égale à 1 :

\left\{f(x) \geq 0\quad \forall x\right\}\quad \and\quad\left\{ \int_{-\infty}^\infty \,f(x)\,dx = 1\right\},

il existe une loi de probabilité ayant ƒ pour densité de probabilité.

Intuitivement, si une loi de probabilité a pour densité ƒ, alors l'intervalle infinitésimal [x, x + dx] a pour probabilité ƒ(x) dx.

Informellement, une densité de probabilité peut être vue comme la limite d'un histogramme : si on dispose d'un échantillon suffisamment important de valeurs d'une variable aléatoire à densité, représenté par un histogramme des fréquences relatives des différentes classes de valeurs, alors cet histogramme va ressembler à la densité de probabilité de la variable aléatoire, pourvu que les classes de valeurs soient suffisamment étroites.

Sommaire

Densité de probabilité d'une variable aléatoire réelle

Lien entre la densité, f et la fonction de répartition (haut), et, plus généralement, les probabilités (bas).

Définition — En théorie des probabilités ou en statistiques, on dit qu'une fonction \scriptstyle\ f\ est une densité de probabilité d'une variable aléatoire réelle \scriptstyle\ X\ si, pour tout réel \scriptstyle\ x,

\mathbb{P}(X\le x)= \int_{-\infty}^{x}\ f(u)du.

La probabilité \scriptstyle\ \mathbb{P}(a < X \le b)\ se calcule alors par la relation suivante :

\mathbb{P}\left( a < X \le b \right)=\int_a^b f\left( u \right)\,du.

En traçant la représentation graphique de la densité de probabilité, la probabilité \scriptstyle\ \mathbb{P}(a < X \le b)\ se lit comme l'aire sous la courbe sur l'intervalle \scriptstyle\ [a , b].

En conséquence, la fonction de répartition \scriptstyle\ F_X\ de \scriptstyle\ X\ est continue, et \scriptstyle\ \mathbb{P}(X=a) = 0, pour tout nombre réel \scriptstyle\ a. En cela, le comportement d'une variable à densité est très différent de celui d'une variable discrète.

Article détaillé : Loi de probabilité.

Définition informelle de la densité de probabilité

La définition qui suit est une reformulation de la définition intégrale proposée en début d'article. C'est la définition utilisée en général par les physiciens, en particulier ceux issus du domaine de la physique statistique.

Si \scriptstyle\ dt\ est un nombre réel positif infiniment petit, alors la probabilité que \scriptstyle\ X\ soit inclus dans l'intervalle \scriptstyle\ [t,t+dt]\ est égale à \scriptstyle\ f\left(t\right)\mathrm dt, soit:

\mathbb{P}\left(t < X < t+ \mathrm dt \right)= f\left(t\right)\, dt.

Cette « définition » est très utile pour comprendre intuitivement à quoi correspond une densité de probabilité, et est correcte dans beaucoup de cas importants. On peut tracer une analogie avec la notion de densité de masse, ou encore avec la notion de densité de population. Une formulation plus mathématique serait

\mathbb{P}\left(t < X < t+ h \right)= f\left(t\right)\,h+o(h),

ce qui permet de comprendre en quoi la définition donnée en physique n'est pas complètement rigoureuse :

\mathbb{P}\left(t < X < t+ h \right)= \int_t^{t+h}\ f\left(u\right)\,du,

et il est alors facile de vérifier que si \scriptstyle\ f\ possède une limite à droite en \scriptstyle\ t\ , notons-là \scriptstyle\ f(t_+), on a alors

\int_t^{t+h}\ f\left(u\right)\,du = f\left(t_+\right)\,h+o(h),

ce qui corrobore la définition physique lorsque \scriptstyle\ f\ est continue à droite en \scriptstyle\ t, mais la met en défaut quand \scriptstyle\ f(t)\neq f(t_+). Bien sûr, les densités de probabilités usuelles sont continues à droite sauf éventuellement en un nombre fini (et en un petit nombre) de points.

Notons que ce genre d'interprétation infinitésimale (ou issue de la physique) s'étend aux dimensions \scriptstyle\ d\ge 2, voir la section suivante.

Densité de la médiane de 9 variables i.i.d.  :

Soit \scriptstyle\ (X_i)_{1\le i\le 9}\ une suite de 9 v.a. r. i.i.d. de même densité \scriptstyle\ f, et de même fonction de répartition \scriptstyle\ F. Notons \scriptstyle\ M\ la médiane de cette suite. Alors :

\mathbb{P}\left(t < M < t+ dt \right)=\mathbb{P}\left(\text{parmi les 9 v.a.r., 4 exactement sont}\le t\text{ et 4 sont}\ge t+dt\right).

On peut voir cela comme une suite de 9 expériences aléatoires indépendantes faites dans les mêmes conditions, avec à chaque fois 3 issues : "\scriptstyle\ X_i\le t\ ", "\scriptstyle\ t<X_i<t+dt\ " et "\scriptstyle\ t+dt\le X_i\ ", de probabilités respectives \scriptstyle\ F(t), \scriptstyle\ f(t)dt\ et \scriptstyle\ 1-F(t+dt), donc la probabilité ci dessus est donnée par la loi multinomiale de paramètres 3, 9 et \scriptstyle\ \left(F(t),\ f(t)dt,\ 1-F(t+dt)\right). Ainsi :

\mathbb{P}\left(t < M < t+ dt \right)={9\choose 4,1,4}F(t)^4\left(f(t)dt\right)^1\left(1-F(t+dt)\right)^4,

et la densité de \scriptstyle\ M\ est

f_M(t)={9\choose 4,1,4}F(t)^4\left(1-F(t)\right)^4f(t)=630\,F(t)^4\left(1-F(t)\right)^4f(t).

Cette méthode est détaillée dans le livre de David[1]. Un résultat plus général se trouve dans Statistique d'ordre.

Critères d'existence d'une densité

En vertu d'un théorème dû à Lebesgue[2], la fonction de répartition d'une variable aléatoire réelle \scriptstyle\ X, étant croissante, est dérivable presque partout sur \scriptstyle\ \mathbb{R},\ et la dérivée ainsi obtenue est positive et intégrable sur \scriptstyle\ \mathbb{R},\ d'intégrale inférieure ou égale à 1.

Critère 1 — \scriptstyle\ X\ possède une densité de probabilité si et seulement si l'intégrale de la dérivée de la fonction de répartition est exactement égale à 1. Cette dérivée est alors une des densités de probabilité de \scriptstyle\ X.

Critère 2 — Si la fonction de répartition de \scriptstyle\ X\ est de classe \scriptstyle\ \mathcal{C}^1 par morceaux sur \scriptstyle\ \mathbb{R} et est, d'autre part, continue sur \scriptstyle\ \mathbb{R},\ alors la dérivée de la fonction de répartition de \scriptstyle\ X\ est une des densités de probabilité de \scriptstyle\ X.

Densité de la médiane de 9 variables i.i.d. (bis)  :

Pour le calcul de la densité de la médiane de 9 variables i.i.d., une solution plus rigoureuse que celle de la section précédente, mais plus lourde, est de calculer la fonction de répartition de la médiane, puis de la dériver. On reconnait un schéma de Bernoulli : le nombre d'indices \scriptstyle\ i\ tels que \scriptstyle\ \{X_i\le t\}\ suit une loi binomiale de paramètres 9 et \scriptstyle\ F(t).


\begin{align}
\mathbb{P}\left(M\le t\right) &= F_{M}(t) = \mathbb{P}\left(\text{au moins 5 des 9 }X_i\text{ sont }\le t\right) \\
&=\sum_{j=5}^9{9 \choose j}F(t)^j(1-F(t))^{9-j}.
\end{align}

En dérivant, on trouve :


\begin{align}
f_{M}(t) & {} ={dF_{M} \over dt}(t)\\
& {} =\sum_{j=5}^9{9 \choose j}\left(jF(t)^{j-1}f(t)(1-F(t))^{9-j}
+F(t)^j (9-j)(1-F(t))^{9-j-1}(-f(t))\right)
\end{align}

Après quelques manipulations sur les coefficients binomiaux, tous les termes de cette somme se télescopent, sauf une partie du premier terme, ce qui donne :


f_{M}(t) = {9! \over 4!4!} F(t)^{4} (1-F(t))^{4} f(t)\ =\ {9 \choose 4,1,4}F(t)^{4} (1-F(t))^{4} f(t),

puis


\int_{\mathbb R}F(t)^{4} (1-F(t))^{4} f(t)dt
=
\int_{0}^1 x^{4} (1-x)^{4}dx
=
\frac{\Gamma(5)^2}{\Gamma(10)}
=
\frac{4!4!}{9!},

donc \scriptstyle\ f_M\ satisfait le critère 1. CQFD

On pourra consulter le livre de David[1] (pages 8-13) pour plus de détails.

Densité de probabilité d'un vecteur aléatoire

Définition — On appelle densité de probabilité d'une variable aléatoire \scriptstyle\ X\ à valeur dans \scriptstyle\ \mathbb{R}^d une fonction \scriptstyle\ f\ telle que pour toute partie borélienne \scriptstyle\ A\subset \mathbb{R}^d,

\mathbb{P}(X\in A)= \int_{\mathbb{R}^d}\ 1_A(u)\,f(u)\,du= \int_{A}\ f(u)\,du.

Cette définition est en particulier valable pour \scriptstyle\ d=1, et est donc équivalente à la première définition, dans le cas particulier \scriptstyle\ d=1.

Théorème —  Soit une variable aléatoire \scriptstyle\ X\ à valeur dans \scriptstyle\ \mathbb{R}^d, de densité \scriptstyle\ f, et soit \scriptstyle\ \varphi\ une fonction borélienne de \scriptstyle\ \mathbb{R}^d\ dans \scriptstyle\ \mathbb{R}. Alors, dès qu'un des deux termes de l'égalite suivante

\mathbb{E}\left[\varphi(X)\right]=\int_{\mathbb{R}^d}\ \varphi(u)\,f(u)\,du

a un sens, alors l'autre aussi, et l'égalité a lieu. Réciproquement, si l'égalité ci-dessus a lieu pour tout \scriptstyle\ \varphi\ borélien borné, alors \scriptstyle\ f\ est une densité de \scriptstyle\ X.

Il existe des variables aléatoires, réelles ou bien à valeurs dans \scriptstyle\ \mathbb{R}^d, qui ne possèdent pas de densité de probabilité, par exemple les variables aléatoires discrètes. Les variables aléatoires qui possèdent une densité de probabilité sont appelées parfois variables à densité, parfois variables continues.

Si une fonction \scriptstyle\ f\ est la densité de probabilité d'une variable aléatoire à valeur dans \scriptstyle\ \mathbb{R}^d, cette fonction vérifie les propriétés suivantes

Réciproquement, si une fonction \scriptstyle\ f\ vérifie les 3 propriétés ci-dessus, on peut construire une variable aléatoire \scriptstyle\ X\ à valeur dans \scriptstyle\ \mathbb{R}^d ayant \scriptstyle\ f\ pour densité de probabilité.

Espérance, variance et moments d'une variable aléatoire réelle à densité

Soit \scriptstyle\ X\ une variable aléatoire réelle ayant une densité de probabilité \scriptstyle\ f\ . Alors, d'après le théorème de transfert, \scriptstyle\ X\ possède un moment d'ordre \scriptstyle\ k\ si et seulement si

\int_{-\infty}^{\infty}\ |t|^k\,f(t)\,dt <+\infty ;

on a dans ce cas

\mathbb{E}\left[X^k\right] = \int_{-\infty}^{\infty}\ t^k\,f(t)\,dt.

En particulier, lorsque le moment d'ordre 2 existe :

\mathbb{E}\left[X\right] = \int_{-\infty}^{\infty}\ t\,f(t)\,dt,
\mathbb{E}\left[X^2\right] = \int_{-\infty}^{\infty}\ t^2\,f(t)\,dt,

et, d'après le théorème de König-Huyghens,

V\left(X\right) = \int_{-\infty}^{\infty}\ t^2\,f(t)\,dt-\left(\int_{-\infty}^{\infty}\ t\,f(t)\,dt\right)^2.

Existence

En vertu du théorème de Radon-Nikodym, le vecteur aléatoire \scriptstyle\ Z\ possède une densité si et seulement si, pour chaque borélien \scriptstyle\ A\ de \scriptstyle\ \mathbb{R}^d\ dont la mesure de Lebesgue est nulle, on a

\mathbb{P}\left(Z\in A\right)=0.

Ce critère est rarement employé dans la pratique pour démontrer que \scriptstyle\ Z\ possède une densité, mais il est en revanche utile pour démontrer que certaines probabilités sont nulles. Par exemple, si le vecteur aléatoire \scriptstyle\ Z=(X,Y)\ possède une densité, alors

  • \mathbb{P}\left(X=Y\right)=0 ,
  • \mathbb{P}\left(X^2+Y^2=1\right)=0 ,
  • \mathbb{P}\left(Y=\varphi(X)\right)=0 ,
  • \mathbb{P}\left(\psi(X,Y)=0\right)=0 ,

pour des fonctions \scriptstyle\ \varphi\ et \scriptstyle\ \psi\ suffisamment régulières[3], parce que la mesure de Lebesgue (c'est-à-dire la surface) de la 1re bissectrice (resp. du cercle unité, du graphe de la fonction \scriptstyle\ \varphi, ou de la courbe d'équation \scriptstyle\ \psi=0) sont nulles.

Le critère de Radon-Nikodym peut aussi être utilisé pour démontrer qu'un vecteur aléatoire ne possède pas de densité : par exemple, si

Z=\left(\cos \Theta, \sin \Theta\right),

\scriptstyle\ \Theta\ désigne une variable aléatoire à valeur dans \scriptstyle\ [0,2\pi]\ (par exemple, si \scriptstyle\ Z\ est tiré au hasard uniformément sur le cercle unité, c'est-à-dire si \scriptstyle\ \Theta\ suit la loi uniforme sur \scriptstyle\ [0,2\pi]\ ), alors \scriptstyle\ Z\ ne possède pas de densité car

\mathbb{P}\left(X^2+Y^2=1\right)=1.

Non-unicité de la densité de probabilité

Si \scriptstyle\ f\ et \scriptstyle\ g\ sont deux densités de probabilités de la même variable aléatoire \scriptstyle\ X, alors \scriptstyle\ f\ et \scriptstyle\ g\ sont égales presque partout. Réciproquement, si g est presque partout égale à une densité de probabilité de \scriptstyle\ X, alors g est une densité de probabilité de \scriptstyle\ X. Ainsi une variable aléatoire à densité possède-t-elle toujours une infinité de densités de probabilité : par exemple, en perturbant l'une des densités de \scriptstyle\ X\ de manière arbitraire en un nombre fini de points, on obtient encore une densité de \scriptstyle\ X.

Densité jointe de plusieurs variables aléatoires réelles

La fonction \scriptstyle\ g\ définie de \scriptstyle\ \mathbb{R}^d\ dans \scriptstyle\ \mathbb{R}\ est une densité jointe de la suite de variables aléatoires réelles \scriptstyle\ \left(Z_1,Z_2,\dots,Z_d\right)\ si \scriptstyle\ g\ est une densité de probabilité du vecteur aléatoire \scriptstyle\ Z\ à valeurs dans \scriptstyle\ \mathbb{R}^d, défini par

Z=\left(Z_1,Z_2,\dots,Z_d\right).

On peut alors calculer la probabilité d'événements concernant les variables aléatoires réelles \scriptstyle\ \left(Z_1,Z_2,\dots,Z_d\right)\ de la manière suivante :

Exemple  :

Si \scriptstyle\ d=2, \scriptstyle\ \mathbb{P}(Z_2\le Z_1)\ s'écrit \scriptstyle\ \mathbb{P}(Z\in A),\scriptstyle\ A\ désigne le demi-plan sous la première bissectrice \scriptstyle\ A=\{(x,y)\in\mathbb{R}^2\,|\,y\le x\}. On a alors, par définition de la densité,

\begin{align}
\mathbb{P}(Z_2\le Z_1)
&=
\int_A\,g(z_1,z_2)dz_1\,dz_2,
\\
&=
\int_{\mathbb{R}^2}\,1_A(z_1,z_2)g(z_1,z_2)dz_1\,dz_2,
\\
&=
\int_{\mathbb{R}^2}\,1_{z_2\le z_1}g(z_1,z_2)dz_1\,dz_2.
\end{align}

Si par exemple \scriptstyle\ Z_1\ et \scriptstyle\ Z_2\ sont indépendants et ont même densité de probabilité \scriptstyle\ f, alors une densité de \scriptstyle\ Z\ est \scriptstyle\ g=f\otimes f\ , c'est-à-dire une densité de \scriptstyle\ Z\ est \scriptstyle\ g\ défini par \scriptstyle\ g(z_1,z_2)=f(z_1)f(z_2)\ . En ce cas,

\begin{align}
\mathbb{P}(Z_2\le Z_1)
&=
\int_{\mathbb{R}^2}\,1_{z_2\le z_1}f(z_1)f(z_2)dz_1\,dz_2,
\\
&=
\int_{\mathbb{R}}\,\left(\int_{-\infty}^{z_1}f(z_2)\,dz_2\right)f(z_1)dz_1,
\\
&=
\int_{\mathbb{R}}F(z_1)f(z_1)dz_1
\\
&=
\frac12\left[F^2\right]_{-\infty}^{+\infty}=\frac12.
\end{align}

Si par contre \scriptstyle\ Z_2=Z_1\ p.s., le vecteur \scriptstyle\ (Z_1,Z_2)\ a les mêmes lois marginales (\scriptstyle\ Z_1\ et \scriptstyle\ Z_2\ ont \scriptstyle\ f\ pour densité de probabilité), mais n'a pas la même loi jointe, puisqu'alors \scriptstyle\ \mathbb{P}(Z_2\le Z_1)=1. Ainsi la donnée des densités marginales de \scriptstyle\ Z_1\ et \scriptstyle\ Z_2, seules, ne permet pas de calculer la probabilité d'événements faisant intervenir à la fois \scriptstyle\ Z_1\ et \scriptstyle\ Z_2, comme par exemple l'évènement \scriptstyle\ \{Z_2\le Z_1\}. Pour effectuer le calcul, on utilise ordinairement la loi jointe de \scriptstyle\ Z_1\ et \scriptstyle\ Z_2, définie dans le cas ci-dessus par leur densité jointe.

Densité marginale

Soit \scriptstyle\ Z\ un vecteur aléatoire à valeurs dans \scriptstyle\ \mathbb{R}^2\ de densité \scriptstyle\ f_Z\ et pour \scriptstyle\ \omega\in\Omega, soit \scriptstyle\ X(\omega)\ et \scriptstyle\ Y(\omega)\ les deux coordonnées de \scriptstyle\ Z(\omega)\ . On notera

\ Z=(X,Y).

Alors

Propriété — Les variables aléatoires réelles \scriptstyle\ X\ et \scriptstyle\ Y\ possèdent toutes deux des densités, notons les \scriptstyle\ f_X\ et \scriptstyle\ f_Y\ , et ces densités sont données par \begin{align}f_X(x)&= \int_{\mathbb{R}}\ f_Z(x,y)\,dy,\\f_Y(y)&= \int_{\mathbb{R}}\ f_Z(x,y)\,dx.\end{align} Les densités de probabilités \scriptstyle\ f_X\ et \scriptstyle\ f_Y\ sont appelées les densités marginales de \scriptstyle\ f_Z.

Plus généralement, si \scriptstyle\ f\ définie de \scriptstyle\ \mathbb{R}^d\ dans \scriptstyle\ \mathbb{R}\ est une densité jointe de :

Z=\left(Z_1,Z_2,\dots,Z_d\right),

on peut calculer une densité \scriptstyle\ g\ de (par exemple) \scriptstyle\ Y=\left(Z_2,Z_5,Z_6\right)\ de la manière suivante (si \scriptstyle\ d=8, par exemple) :


g(x_2,x_5,x_6)
=
\int_{\mathbb{R}^5}\ f(x_1,x_2,\dots,x_8)\,dx_1dx_3dx_4dx_7dx_8,

c'est-à-dire en intégrant par rapport à toutes les coordonnées qui ne figurent pas dans le triplet \scriptstyle\ Y. La fonction \scriptstyle\ g\ est elle aussi appelée « densité marginale » ou « marginale » de \scriptstyle\ f. Une formulation générale serait lourde. La démonstration générale est calquée sur la démonstration de la propriété ci-dessus.

Densité de la médiane de 9 variables i.i.d. (ter)  :

La densité jointe des 9 statistiques d'ordre[4], notées ici \scriptstyle\ (Z_i)_{1\le i\le 9}, de l'échantillon \scriptstyle\ (X_i)_{1\le i\le 9}, est donnée par :

g(z)= 9!\ \prod_{i=1}^9 f(z_i)\ 1_{z_1<z_2<z_3<\dots<z_9}.

Par définition des statistiques d'ordre, la médiane \scriptstyle\ M\ est aussi la 5-ème statistique d'ordre, \scriptstyle\ Z_5. On a donc :

f_M(z_5)=\int_{\mathbb{R}^8}g(z)dz_1dz_2dz_3dz_4dz_6dz_7dz_8dz_9.

Ainsi, de proche en proche,


\begin{align}
\int_{\mathbb{R}}g(z)dz_1
&=
9!\ F(z_2)\ \prod_{i=2}^9 f(z_i)\ 1_{z_2<z_3<\dots<z_9},
\\
\int_{\mathbb{R}^2}g(z)dz_1\,dz_2
&=
\frac{9!}{2!}\ F(z_3)^2\ \prod_{i=3}^9 f(z_i)\ 1_{z_3<\dots<z_9},
\\
\int_{\mathbb{R}^4}g(z)dz_1\,dz_2\,dz_3\,dz_4
&=
\frac{9!}{4!}\ F(z_5)^4\ \prod_{i=5}^9 f(z_i)\ 1_{z_5<\dots<z_9},
\\
\int_{\mathbb{R}^4}g(z)dz_1\,dz_2\,dz_3\,dz_4\,dz_9
&=
\frac{9!}{4!1!}\ F(z_5)^4\ \left(1-F(z_8)\right)\ \prod_{i=5}^8 f(z_i)\ 1_{z_5<\dots<z_8},
\\
f_M(z_5)
&=
\frac{9!}{4!4!}F(z_5)^4\left(1-F(z_5)\right)^4f(z_5).
\end{align}

Indépendance des variables aléatoires à densité

Soit une suite \scriptstyle\ X=(X_1, X_2, \dots,X_n) de variables aléatoires réelles définies sur le même espace de probabilité \scriptstyle\ (\Omega, \mathcal{A}, \mathbb{P}).\

Théorème — 

  • Si \scriptstyle\ X\ possède une densité de probabilité \scriptstyle\ f:\R^n\rightarrow [0,+\infty[\ qui s'écrit sous forme « produit » :
\forall x=(x_1,\dots,x_n)\in\R^n,\qquad f(x)\ =\  \prod_{i=1}^ng_i(x_i),
où les fonctions \scriptstyle\ g_i\ sont boréliennes et positives ou nulles, alors \scriptstyle\ X\ est une suite de variables indépendantes. De plus, la fonction \scriptstyle\ f_i\ définie par
f_i(x)\ =\  \frac{g_i(x)}{\int_{\R}g_i(u)du}
est une densité de la composante \scriptstyle\ X_i.\
  • Réciproquement, si \scriptstyle\ X\ est une suite de variables aléatoires réelles indépendantes de densités de probabilité respectives \scriptstyle\ f_i,\ alors \scriptstyle\ X\ possède une densité de probabilité, et la fonction \scriptstyle\ f\ définie par
\forall (x_1,\dots,x_n)\in\R^n,\qquad f(x_1,\dots,x_n)\ =\  \prod_{i=1}^nf_i(x_i),
est une densité de probabilité de \scriptstyle\ X.\

Fonction de variables aléatoires à densité

Dans cette section, on considère la question suivante : étant donnée une variable aléatoire \scriptstyle\ X\ de densité \scriptstyle\ f_X\ et une fonction \scriptstyle\ g,\ quelle est la loi de la variable aléatoire \scriptstyle\ Y=g(X).\ En particulier, sous quelles conditions \scriptstyle\ Y\ possède-t-elle aussi une densité de probabilité \scriptstyle\ f_Y\  ? Et comment peut-on la calculer ? Une réponse rapide est que, localement, on doit pouvoir appliquer à la fonction g le théorème d'inversion locale sauf sur un ensemble de points de mesure de Lebesgue nulle). Le calcul de \scriptstyle\ f_Y\ se résume alors à un changement de variable dans une intégrale simple ou multiple, comme cela est illustré dans les quelques exemples ci-dessous.

Somme de variables aléatoires indépendantes

La densité de probabilité de la somme de deux variables aléatoires indépendantes U et V, chacune ayant une densité fU et fV, est donnée par une convolution de ces densités:

 f_{U+V}(x) = \int_{-\infty}^\infty f_U(y) f_V(x - y)\,dy= \left(f_U\ast f_V\right)(x).

Dans cet exemple, \scriptstyle\ X=(U,V),\ \scriptstyle\ f_X(u,v)=f_U(u)f_V(v)\ et \scriptstyle\ g(u,v)=u+v.\

Pour déterminer la loi de la somme de variables indépendantes, on peut aussi passer par la fonction génératrice des moments ou par la fonction caractéristique d'une variable aléatoire[5] . C'est ainsi qu'est démontré le théorème de la limite centrale.

Fonction d'une variable aléatoire réelle à densité

Notons \scriptstyle\ f_X\ la densité de la variable aléatoire réelle \scriptstyle\ X. Il est possible de considérer un changement de variable, dépendant de x. La transformation est la suivante: Y = g(X) où la fonction g est strictement monotone et dérivable, de dérivée qui ne s'annule nulle part. La densité fY(y) de la transformée est

Théorème — f_Y(y) = \left| \frac{1}{g'(g^{-1}(y))} \right| \cdot f_X(g^{-1}(y)).

g−1 représente la fonction réciproque de g et g' la dérivée de g.

Pour une transformation g non monotone, la densité de probabilité de Y est

f_Y(y) = \sum_{k}^{n(y)} \left| \frac{1}{g'(g^{-1}_{k}(y))} \right| \cdot f_X(g^{-1}_{k}(y))

n(y) est le nombre de solutions en x de l'équation g(x) = y, et g^{-1}_{k}(y) sont les solutions. La fonction g doit vérifier certaines hypothèses, toutefois : essentiellement on doit pouvoir lui appliquer le théorème d'inversion locale sauf sur un ensemble de points de mesure de Lebesgue nulle. Par exemple un ensemble d'hypothèses peu limitatif mais simple à vérifier serait : g est de classe C1 et l'ensemble des zéros de la dérivée g' est localement fini. Il s'agit d'exclure entre autres (mais pas seulement) le cas où g est constante sur un ensemble de mesure non nulle pour la loi de X, cas où g(X) n'a pas une loi à densité, car la loi de g(X) peut alors avoir une partie discrète.

Exemples  :
f_Y(y) = \frac{1}{|a|}\ f_X\left(\tfrac{x-b}{a}\right).

En effet, si, par exemple, a est strictement négatif, on obtient, via le changement de variable \scriptstyle\ u=ax+b,\

\begin{align}\mathbb{E}[\varphi(Y)] &= \mathbb{E}[\varphi(aX+b)]  = \int_{\mathbb{R}}\varphi(ax+b)f_X(x)dx
\\
&= \int_{+\infty}^{-\infty}\varphi(u)f_X\left(\tfrac{u-b}{a}\right)\ \tfrac{du}{a}
\\
&= \int_{-\infty}^{+\infty}\varphi(u)\ \left(\tfrac{1}{-a}\ f_X\left(\tfrac{u-b}{a}\right)\right)\ du,\end{align}
ceci pour toute fonction \scriptstyle\ \varphi\ mesurable bornée. CQFD
  • Prenons l'exemple du carré d'une variable aléatoire ; on sait que, si \scriptstyle\ Y=X^2,\
\begin{align}\mathbb{E}[\varphi(Y)] &= \mathbb{E}[\varphi(X^2)]  = \int_{\mathbb{R}}\varphi(x^2)f_X(x)dx
\\
&= \int_{-\infty}^{0}\varphi(x^2)f_X(x)dx+\int_{0}^{+\infty}\varphi(x^2)f_X(x)dx
\\
&= \int_{+\infty}^{0}\varphi(u)f_X(-\sqrt{u})\ \left(-\frac{du}{2\sqrt{u}}\right)+ \int_{0}^{+\infty}\varphi(u)f_X(\sqrt{u})\ \left(\frac{du}{2\sqrt{u}}\right)
\\
&= \int_{\mathbb{R}}\varphi(u)\ \frac{1}{2\sqrt{u}} \left[f_X(\sqrt{u}) + f_X(-\sqrt{u})\right] 1_{u>0}du,\end{align}
ceci pour toute fonction \scriptstyle\ \varphi\ mesurable bornée. Ainsi, on trouve que
f_Y(y) = \frac{1}{2\sqrt{y}} \left[f_X(\sqrt{y}) + f_X(-\sqrt{y})\right] 1_{y>0}
ce qui est conforme à la formule.
  • Autre solution : on sait que,
    • si \scriptstyle\ y\ge 0,\  :
F_Y(y) = \mathbb{P}(Y \le y) = \mathbb{P}(X^2 \le y) = \mathbb{P}(-\sqrt{y} \le X \le \sqrt{y}) = F_X(\sqrt{y}) - F_X(-\sqrt{y})
    • si \scriptstyle\ y\le 0,\ alors FY(y) = 0.
En dérivant, on trouve à nouveau
f_Y(y) = \frac{1}{2\sqrt{y}} \left[f_X(\sqrt{y}) + f_X(-\sqrt{y})\right] 1_{y>0}.
Contre-exemple  :

Prenons X uniforme sur [0,2] et \scriptstyle\ g(x)=\min(x,1).\ Alors

P_Y(dy) = \tfrac12\ 1_{[0,1]}(y)\ dy\ +\  \tfrac12\ \delta_{1}(dy).

Autrement dit, la loi de Y a une partie à densité, mais aussi un atome en 1.

Notes et références

  1. a  et b Herbert Aron David, Order Statistics [détail des éditions], pages 8-13
  2. E. Hewitt & K. Stromberg, Real and Abstract Analysis [détail des éditions], Théorème 17.12, p. 264 et Théorème 18.16, p. 285.
  3. en effet il faut éviter des phénomènes de type "Courbe de Peano".
  4. Herbert Aron David, Order Statistics [détail des éditions], Ch. 1.
  5. que ces variables aléatoires ait une densité de probabilité, ou qu'elles n'en aient pas. Notons que, si une variable aléatoire possède une densité de probabilité, alors sa fonction caractéristique est la transformée de Fourier de cette densité.

Voir aussi

Articles connexes

  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques
Ce document provient de « Densit%C3%A9 de probabilit%C3%A9 ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Densite de probabilite de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • Densité De Probabilité — Pour les articles homonymes, voir Densité (homonymie). En théorie des probabilités ou en statistiques, une densité de probabilité est une fonction qui permet de représenter une loi de probabilité sous forme d intégrales. Formellement, une loi de… …   Wikipédia en Français

  • Densité de probabilité — Pour les articles homonymes, voir Densité (homonymie). En théorie des probabilités ou en statistiques, une densité de probabilité est une fonction qui permet de représenter une loi de probabilité sous forme d intégrales. Formellement, une loi de… …   Wikipédia en Français

  • densité de probabilité — tikimybės tankis statusas T sritis Standartizacija ir metrologija apibrėžtis Tankis, apibūdinamas skirstinio funkcija, pvz., Maksvelo skirstinio funkcija pagal greičius, Planko skirstinio funkcija pagal dažnius ar energiją. Kvantinėje fizikoje… …   Penkiakalbis aiškinamasis metrologijos terminų žodynas

  • densité de probabilité — tikimybės tankis statusas T sritis fizika atitikmenys: angl. probability density vok. Wahrscheinlichkeitsdichte, f rus. плотность вероятности, f pranc. densité de probabilité, f …   Fizikos terminų žodynas

  • Densité de probabilité conditionnelle — Probabilité conditionnelle La notion de probabilité conditionnelle permet de tenir compte dans une prévision d une information complémentaire. Par exemple, si je tire au hasard une carte d un jeu, j estime naturellement à une chance sur quatre la …   Wikipédia en Français

  • fonction de densité de probabilité — tikimybės tankio funkcija statusas T sritis automatika atitikmenys: angl. probability density function vok. Wahrscheinlichkeitsdichtefunktion, f rus. функция плотности вероятности, f pranc. fonction de densité de probabilité, f …   Automatikos terminų žodynas

  • Probabilite — Probabilité La probabilité (du latin probabilitas) est une évaluation du caractère probable d un évènement. En mathématiques, l étude des probabilités est un sujet de grande importance donnant lieu à de nombreuses applications. La probabilité d… …   Wikipédia en Français

  • Probabilité et statistique — Probabilité La probabilité (du latin probabilitas) est une évaluation du caractère probable d un évènement. En mathématiques, l étude des probabilités est un sujet de grande importance donnant lieu à de nombreuses applications. La probabilité d… …   Wikipédia en Français

  • Densite (homonymie) — Densité (homonymie) Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom …   Wikipédia en Français

  • Densité (Homonymie) — Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”