Cumulants (statistiques)

Cumulants (statistiques)

Dans la théorie des probabilités et en statistiques, une variable aléatoire X a une espérance mathématique μ = E(X) et une variance σ2 = E((X − μ)2). Ce sont les deux premiers cumulants : μ = κ1 et σ2 = κ2.

Les cumulants κn sont définis par la fonction génératrice des cumulants qui est g(t) :

g(t)=\log(E (e^{t\cdot X}))=\sum_{n=1}^\infty\kappa_n \frac{t^n}{n!}=\mu t + \sigma^2 \frac{ t^2}{2} + \cdots.

Elle est donc intimement liée à la fonction génératrice des moments et à la fonction caractéristique de la variable X. Les cumulants sont donnés par les dérivées en 0 de g(t) :

κ1 = μ = g' (0),
κ2 = σ2 = g' '(0),
κn = g(n) (0).

Une distribution avec des cumulants κn donnés peut être approchée par un développement d'Edgeworth.

Comme indiqué plus haut, les cumulants d'une distribution sont liés aux moments de la distribution. Travailler avec la fonction génératrice des cumulants est plus pratique dans la mesure où pour des variables indépendantes X et Y,

g_{X+Y}(t)=\log(E(e^{t\cdot (X+Y)}))=\log(E(e^{tX})\cdot E(e^{tY}))=\log(E(e^{tX}))+\log(E(e^{tY}))=g_{X}(t)+g_{Y}(t) \,.

tandis qu'avec la fonction génératrice des moments MX, on obtient

M_{X+Y}(t) = E(e^{t\cdot(X+Y)}) = E(e^{tX}) \cdot  E(e^{tY}) = M_X(t) \cdot M_Y(t).

Il faut enfin remarquer que :

g_{\alpha X}(t)=\log(E(e^{t\cdot \alpha X})) = g_{X}(\alpha t) \,.


Certains auteurs[1],[2] préfèrent définir la fonction génératrice des cumulants directement à partir de la fonction caractéristique d'une variable aléatoire comme le logarithme népérien de cette fonction caractéristique. La fonction génératrice des cumulants prend alors parfois le nom de seconde fonction caractéristique d'une distribution.

h(t)=\log(E (e^{i t X}))=\sum_{n=1}^\infty\kappa_n \cdot\frac{(it)^n}{n!}=\mu it - \sigma^2 \frac{ t^2}{2} + \cdots.\,

La caractérisation des cumulants est valide même pour les distributions dont les plus hauts moments n'existent pas.

Sommaire

Cumulants de quelques distributions discrètes

  • La variable aléatoire constante X = 1. La dérivée de la fonction génératrice des cumulants est g'(t) = 1. Le premier cumulant est donc κ1 = g '(0) = 1 et tous les autres cumulants sont nuls, κ2 = κ3 = κ4 = ... = 0.
  • La variable aléatoire Y = μ se déduit de la variable aléatoire précédente. La fonction génératrice des cumulants est donc gY(t) = gXt) = μt. Bref, chaque cumulant est juste μ fois les cumulants précédents. On a donc κ1 = g '(0) = μ et les autres cumulants sont nuls, κ2 = κ3 = κ4 = ... = 0.
  • La loi de Bernoulli (nombre de succès dans une épreuve avec une probabilité de succès p). Le cas spécial p = 1 revient à la variable aléatoire X = 1. La fonction génératrice est g(t) = ln(pet + (1 − p)). Sa dérivée est g '(t) = ((p−1−1)·et + 1)−1. Finalement, les cumulants sont κ1 = g '(0) = p et κ2 = g ' '(0) = p·(1−p) . Les cumulants vérifient la formule de récurrence \scriptstyle\kappa_{n+1}=p\cdot(1-p)\cdot\tfrac{d\kappa_n}{dp}.\,
  • La loi géométrique (nombre de défaillances avant un succès, avec une probabilité de succès p à chaque expérience). La dérivée de la fonction génératrice des cumulants est g '(t) = ((1−p)−1·et−1)−1. Les premiers cumulants sont κ1 = g '(0) = p−1−1, et κ2 = g ' '(0) = κ1·p−1. En posant p = (μ+1)−1, on obtient g '(t) = ((μ−1+1)·et−1)−1 et κ1 = μ.
  • La loi de Poisson. La dérivée de la fonction génératrice des cumulants est g '(t) = μ·et. Tous les cumulants sont égaux au paramètre: κ1 = κ2 = κ3 = ...=μ.
  • La loi binomiale (n répétitions indépendantes de l'expérience de Bernouilli décrite plus haut). Chaque cumulant est juste n fois le cumulant associé de la loi de Bernouilli. La dérivée de la fonction génératrice des cumulants est g '(t) = n·((p−1−1)·et + 1)−1. Les premiers cumulants sont κ1 = g '(0) = n·p et κ2 = g ' '(0) = κ1·(1−p). En posant p = μ·n−1 cela donne g '(t) = ((μ−1n−1)·et+n−1)−1 et κ1 = μ. Le cas limite n−1 = 0 est une loi de Poisson.
  • La loi binomiale négative (nombre d'échecs avant n succès avec une probabilité de succès p à chaque expérience). Le cas spécial n = 1 est la loi géométrique. La dérivée de la fonction génératrice des cumulants est g '(t) = n·((1−p)−1·et−1)−1. Les premiers cumulants sont κ1 = g '(0) = n·(p−1−1) et κ2 = g ' '(0) = κ1·p−1. En posant p = (μ·n−1+1)−1, cela donne g '(t) = ((μ−1+n−1)·etn−1)−1 et κ1 = μ. Comparer ces formules à celles de la loi binomial permet de justifier le nom de 'loi binomiale négative'. Le cas limite n−1 = 0 est encore la loi Poisson.

En introduisant \epsilon=\mu^{-1}\sigma^2=k_1^{-1}k_2, les distributions précédentes donnent une formule unifiée pour la dérivée de la fonction génératrice des cumulants :

g'(t)=\mu\cdot(1+\epsilon\cdot (e^{-t}-1))^{-1}.

La dérivée seconde est

g''(t)=g'(t)\cdot(1+e^t\cdot (\epsilon^{-1}-1))^{-1}

confirmant que le premier cumulant est κ1 = g '(0) = μ et que le second cumulant est κ2 = g ' '(0) = μ·ε. Les variables aléatoires constantes X = μ sont telles que є = 0. Les lois binomiales vérifient є = 1 − p si bien que 0<є<1. Les lois de Poisson vérifient є = 1 tandis que les lois binomiales négatives se caractérisent par є = p−1 si bien que є > 1. Il faut noter l'analogie avec l'excentricité des coniques: cercles є = 0, ellipses 0 < є < 1, paraboles є = 1, hyperboles є > 1.

Cumulants de certaines lois continues

  • Pour la loi normale, d'espérance μ et de variance σ2, la dérivée de la fonction génératrice des cumulants est g '(t) = μ + σ2·t. Les cumulants sont donc κ1 = μ, κ2 = σ2, et κ3 = κ4 = ... = 0. Le cas spécial σ2 = 0 conduit à une variable constante: X = μ.

Quelques propriétés des cumulants

Invariance

Les cumulants vérifient pour tout variable aléatoire X et tout constante c les relations: κ1(X + c) = κ1(X) + c et κn(X + c) = κn(X) pour n ≥ 2. Pour résumer, c est ajouté au premier cumulant, et tous les cumulants d'ordre supérieur sont inchangés.

Homogénéité

Le n-ième cumulant est homogène de degré n, c'est-à-dire si c est une constante, alors:

κn(cX) = cnκn(X).

Additivité

Si X et Y sont indépendants, alors κn(X + Y) = κn(X) + κn(Y).

Un résultat en demi-teinte

Sachant les résultats des cumulants de la loi normale, on pourrait espérer trouver des distributions pour lesquelles κm = κm+1 = ... = 0 pour un m>3, et où les cumulants d'ordre inférieur (ordres 3 à m -1) sont non-nuls. Il n'existe pas de telles distributions [3]. Ainsi, la fonction génératrice des cumulants ne peut être un polynôme de degré supérieur à 2.

Cumulants et moments

La fonction génératrice des moments est :

1+\sum_{n=1}^\infty \frac{\mu'_n t^n}{n!}=\exp\left(\sum_{n=1}^\infty \frac{\kappa_n t^n}{n!}\right) = \exp(g(t)).

si bien que la fonction génératrice des cumulants est le logarithme de la fonction génératrice des moments. Le premier cumulant est l'espérance; les deuxième et troisième cumulants sont respectivement les deuxième et troisième moments centrés (le moment centré d'ordre 2 est la variance); mais les cumulants d'ordre supérieur ne sont pas égaux aux moments non-centrés, pas plus qu'aux moments centrés. Ce sont plutôt des polynômes de ces moments.

Les cumulants sont liés aux moments par la formule de récurrence :

\kappa_n=\mu'_n-\sum_{k=1}^{n-1}{n-1 \choose k-1}\kappa_k \mu_{n-k}'.

Le n-ème moment μ′n est un polynôme de degré n des n premiers cumulants:

\mu'_1=\kappa_1\,
\mu'_2=\kappa_2+\kappa_1^2\,
\mu'_3=\kappa_3+3\kappa_2\kappa_1+\kappa_1^3\,
\mu'_4=\kappa_4+4\kappa_3\kappa_1+3\kappa_2^2+6\kappa_2\kappa_1^2+\kappa_1^4\,
\mu'_5=\kappa_5+5\kappa_4\kappa_1+10\kappa_3\kappa_2
+10\kappa_3\kappa_1^2+15\kappa_2^2\kappa_1
+10\kappa_2\kappa_1^3+\kappa_1^5\,
\mu'_6=\kappa_6+6\kappa_5\kappa_1+15\kappa_4\kappa_2+15\kappa_4\kappa_1^2
+10\kappa_3^2+60\kappa_3\kappa_2\kappa_1+20\kappa_3\kappa_1^3+15\kappa_2^3
+45\kappa_2^2\kappa_1^2+15\kappa_2\kappa_1^4+\kappa_1^6.\,

Les coefficients sont précisément ceux qui apparaissent dans la formule de Faà di Bruno.

Les moments μ′n ne doivent pas être confondus avec les moments centrés μn. Pour exprimer les moments centraux en fonction des cumulants, il suffit d'ignorer tous les termes dans lesquels on trouve le facteur κ1:

\mu_1=0\,
\mu_2=\kappa_2\,
\mu_3=\kappa_3\,
\mu_4=\kappa_4+3\kappa_2^2\,
\mu_5=\kappa_5+10\kappa_3\kappa_2\,
\mu_6=\kappa_6+15\kappa_4\kappa_2+10\kappa_3^2+15\kappa_2^3.\,

Lien avec la physique statistique

En physique statistique, un système à l'équilibre avec un bain thermique à température T = 1 / β peut occuper des états d'énergie E. Soit f(E) la densité d'états d'énergie E. La fonction de partition du système est donné par

Z(β) = < exp( − βE) >

L'énergie libre du système est définie par

F(β) = ( − 1 / β)log(Z)

L'énergie libre du système donne accès à l'ensemble des propriétés thermodynamiques du système comme son énergie interne, son entropie, sa chaleur spécifique

Histoire

Les cumulants ont été introduits en 1889 par l'astronome, mathématicien et actuaire danois Thorvald Nicolai Thiele (1838 - 1910) in 1889. Thiele les appelle alors half-invariants (demi-invariants). Il faut attendre 1931 pour trouver l'appellation cumulants dans le papier, The derivation of the pattern formulae of two-way partitions from those of simpler patterns, Proceedings of the London Mathematical Society, Series 2, v. 33, pp. 195-208, par le grand statisticien Ronald Aylmer Fisher et par John Wishart. L'historien Stephen Stigler reporte que le nom cumulant fut suggéré à Fisher dans une lettre de Harold Hotelling. La fonction de partition en physique statistique pour l'ensemble canonique a été introduit par Josiah Willard Gibbs en 1901.

Voir aussi

Références

  1. Kendall, M.G., Stuart, A. (1969) The Advanced Theory of Statistics, Volume 1 (3rd Edition). Griffin, London. (Section 3.12)
  2. Lukacs, E. (1970) Characteristic Functions (2nd Edition). Griffin, London. (Page 27)
  3. Lukacs, E. (1970) Characteristic Functions (2nd Edition), Griffin, London. (Theorem 7.3.5)

Liens externes

  • Cumulant, un article de Eric W. Weisstein, sur mathworld
  • Portail des probabilités et des statistiques Portail des probabilités et des statistiques

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Cumulants (statistiques) de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • Projet:Mathématiques/Liste des articles de mathématiques — Cette page n est plus mise à jour depuis l arrêt de DumZiBoT. Pour demander sa remise en service, faire une requête sur WP:RBOT Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou… …   Wikipédia en Français

  • Analyse En Composantes Indépendantes — Pour les articles homonymes, voir ACI. L analyse en composantes indépendantes est une méthode d analyse des données (voir aussi Exploration de données) qui relève des statistiques, des réseaux de neurones et du traitement du signal. Elle est… …   Wikipédia en Français

  • Analyse en composantes independantes — Analyse en composantes indépendantes Pour les articles homonymes, voir ACI. L analyse en composantes indépendantes est une méthode d analyse des données (voir aussi Exploration de données) qui relève des statistiques, des réseaux de neurones et… …   Wikipédia en Français

  • Analyse en composantes indépendantes — Pour les articles homonymes, voir ACI. L analyse en composantes indépendantes est une méthode d analyse des données (voir aussi Exploration de données) qui relève des statistiques, des réseaux de neurones et du traitement du signal. Elle est… …   Wikipédia en Français

  • Loi uniforme continue — Uniforme Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Loi Uniforme Continue — Uniforme Densité de probabilité / Fonction de masse Fonction de répartition …   Wikipédia en Français

  • Kurtosis — En théorie des probabilités et en statistiques, le kurtosis (mot d origine grecque), plus souvent traduit par coefficient d aplatissement, ou coefficient d aplatissement de Pearson, correspond à une mesure de l aplatissement, ou a contrario de la …   Wikipédia en Français

  • Fonction caractéristique d'une variable aléatoire — En probabilités et en statistiques, la fonction caractéristique d une variable aléatoire réelle X détermine de façon unique sa loi de probabilité. Si cette variable aléatoire a une densité alors la fonction caractéristique est la transformée de… …   Wikipédia en Français

  • Thorvald Nicolai Thiele — Thorvald N. Thiele Thorvald Nicolai Thiele (24 décembre 1838 26 septembre 1910) était un astronome, actuaire et mathématicien Danois, connu surtout pour ses travaux dans les domaines des statistiques …   Wikipédia en Français

  • Principe de grandes déviations — Le principe de grandes déviations, en théorie des probabilités, concerne le comportement asymptotique de queues de suite de loi de probabilités. Quelques premières idées de la théorie ont été données par Laplace et Cramér ; depuis, une… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”