Densité jointe

Densité jointe

Loi de probabilité à plusieurs variables

Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe. La description des notions correspondantes, certaines d'entre elles généralisant les notions relatives à une seule variable, est simplifiée de deux manières:

  • Seules les variables continues sont considérées. Il est possible de passer aux variables discrètes en utilisant la fonction de Heaviside et la fonction de Dirac.
  • Pour éviter la lourdeur des formules, l'exposé est limité à deux variables.

Sommaire

Formules de base

La probabilité pour que la variable aléatoire X\, prenne une valeur numérique inférieure à x\, alors que Y\, prend une valeur inférieure à y\, définit la fonction de répartition :

F(x,y) = \mathcal{P}(X<x,Y<y)

Celle-ci est non décroissante en x\, et en y\, entre la valeur 0 lorsque les deux variables tendent vers -\infty\, et la valeur 1 lorsqu'elles tendent toutes deux vers +\infty\,.

La densité de probabilité jointe ou loi jointe s'obtient par une double dérivation :

f_{XY}(x,y) = \frac{\partial F_{XY}}{\partial x \partial y}

Une intégration par rapport à y\, (resp. x\,) donne la densité de probabilité marginale ou loi marginale de X\,(resp. Y\,) :

f_X (x) = \int_{-\infty}^\infty f_{XY}(x,y) \mathrm dy

Le rapport de la densité de probabilité jointe (relative à une valeur x\,) à la densité marginale de Y\, (concernant toutes les valeurs x\,) représente la densité de probabilité conditionnelle de X\, sous la condition Y = y\, :

 df_{X|Y}(x,y) = \frac {f_{XY}(x,y)} {f_{Y}(y)}

Espérances mathématiques

L'espérance mathématique d'une fonction f\, de deux variables généralise la formule donnée pour une seule variable :

\mathbb{E}[f(X,Y)] = \int_{-\infty}^\infty \int_{-\infty}^\infty\ f(x,y) p_{XY}(x,y) \mathrm dx \mathrm dy

L'opérateur espérance est linéaire ; en particulier, l'espérance (la moyenne) d'une somme de deux variables aléatoires est la somme des moyennes :

\mathbb{E}[X + Y] = \mathbb{E}[X] + \mathbb{E}[Y]\,

Parmi ces espérances, une double transformation de Fourier conduit à la fonction caractéristique:

\varphi_{XY} (\theta,\psi) = \mathbb{E}[e^{i(\theta X + \psi Y)}]

Comme pour le cas d'une seule variable aléatoire un développement en série permet de faire apparaître les moments que l'on peut centrer par soustraction des moyennes.

Indépendance

Si la densité de probabilité conditionnelle de X\, par rapport à Y\, est identique à la densité marginale :

 p_{X}(x) = \frac {p_{XY}(x,y)} {p_{Y}(y)}

on dit que les deux variables sont indépendantes. L'égalité se réécrit :

p_{XY}(x,y) = p_{X}(x) p_{Y}(y)\,

La fonction caractéristique de la somme des variables est alors égale au produit des fonctions caractéristiques individuelles :

Z = X + Y \qquad \varphi_{Z} (\theta) = \varphi_{X} (\theta) \varphi_{Y} (\theta)

C'est l'une des principales propriétés de la fonction caractéristique. Cette remarque est, entre autres, utilisée dans la démonstration du théorème de la limite centrale.

Corrélation

On appelle corrélation de deux variables aléatoires la grandeur:

\rho=\frac{\mathbb{E}[(X-\overline X) (Y -\overline Y)]}{\sigma(X)\sigma(Y)}

\sigma(X)=\sqrt{\mathbb{E}(X-\overline{X})^2} est la variance. La corrélation de deux variables est comprises entre -1 et 1. Pour une corrélation proche de 1 la variable X aura tendance à être grande quand Y le sera et vice versa. Pour une corrélation proche de -1 la variable X aura tendance à être petite quand Y le sera grande. Si la covariance est nulle on dit que les deux variables sont décorrélées. La formule se développe alors en:

E[XY] = E[X] E[Y]\,

Si les deux variables sont indépendantes, elles sont décorrélées, l'inverse n'étant pas vrai, car l'indépendance implique tous les moments au lieu d'un seul. La notion de variables décorrélées est plus faible que celle d'indépendance et est loin d'avoir la même utilité.


  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques
Ce document provient de « Loi de probabilit%C3%A9 %C3%A0 plusieurs variables ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Densité jointe de Wikipédia en français (auteurs)

Игры ⚽ Поможем написать реферат

Regardez d'autres dictionnaires:

  • Densite de probabilite — Densité de probabilité Pour les articles homonymes, voir Densité (homonymie). En théorie des probabilités ou en statistiques, une densité de probabilité est une fonction qui permet de représenter une loi de probabilité sous forme d intégrales.… …   Wikipédia en Français

  • Densité De Probabilité — Pour les articles homonymes, voir Densité (homonymie). En théorie des probabilités ou en statistiques, une densité de probabilité est une fonction qui permet de représenter une loi de probabilité sous forme d intégrales. Formellement, une loi de… …   Wikipédia en Français

  • Densité de probabilité — Pour les articles homonymes, voir Densité (homonymie). En théorie des probabilités ou en statistiques, une densité de probabilité est une fonction qui permet de représenter une loi de probabilité sous forme d intégrales. Formellement, une loi de… …   Wikipédia en Français

  • Densité de probabilité conditionnelle — Probabilité conditionnelle La notion de probabilité conditionnelle permet de tenir compte dans une prévision d une information complémentaire. Par exemple, si je tire au hasard une carte d un jeu, j estime naturellement à une chance sur quatre la …   Wikipédia en Français

  • Loi jointe — Loi de probabilité à plusieurs variables Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci dessous) et de variables liées… …   Wikipédia en Français

  • Statistique d'ordre — Distribution pour la statistique d ordre 5 d une distribution exponentielle avec θ = 3. En statistiques, la statistique d ordre de rang k d un échantillon statistique est égal à la k ieme plus petite valeur. Associée aux statistiques de rang, la… …   Wikipédia en Français

  • Loi Normale Multidimensionnelle — Distribution normale multidimensionnelle Densité de probabilité / Fonction de masse Fonction de répartition Paramètres moyenne (vecteur réel) …   Wikipédia en Français

  • Loi multinormale — Loi normale multidimensionnelle Distribution normale multidimensionnelle Densité de probabilité / Fonction de masse Fonction de répartition Paramètres moyenne (vecteur réel) …   Wikipédia en Français

  • Loi normale multidimensionnelle — Distribution normale multidimensionnelle Paramètres moyenne (vecteur réel) Σ matrice de variance covariance (matrice définie positive réelle ) Support …   Wikipédia en Français

  • Probabilité bayésienne — Théorème de Bayes Le théorème de Bayes est un résultat de base en théorie des probabilités, issu des travaux du révérend Thomas Bayes et retrouvé ensuite indépendamment par Laplace. Dans son unique article, Bayes cherchait à déterminer ce que… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”