- Cumulants (statistiques)
-
Dans la théorie des probabilités et en statistiques, une variable aléatoire X a une espérance mathématique μ = E(X) et une variance σ2 = E((X − μ)2). Ce sont les deux premiers cumulants : μ = κ1 et σ2 = κ2.
Les cumulants κn sont définis par la fonction génératrice des cumulants qui est g(t) :
Elle est donc intimement liée à la fonction génératrice des moments et à la fonction caractéristique de la variable X. Les cumulants sont donnés par les dérivées en 0 de g(t) :
- κ1 = μ = g' (0),
- κ2 = σ2 = g' '(0),
- κn = g(n) (0).
Une distribution avec des cumulants κn donnés peut être approchée par un développement d'Edgeworth.
Comme indiqué plus haut, les cumulants d'une distribution sont liés aux moments de la distribution. Travailler avec la fonction génératrice des cumulants est plus pratique dans la mesure où pour des variables indépendantes X et Y,
tandis qu'avec la fonction génératrice des moments MX, on obtient
.
Il faut enfin remarquer que :
Certains auteurs[1],[2] préfèrent définir la fonction génératrice des cumulants directement à partir de la fonction caractéristique d'une variable aléatoire comme le logarithme népérien de cette fonction caractéristique. La fonction génératrice des cumulants prend alors parfois le nom de seconde fonction caractéristique d'une distribution.La caractérisation des cumulants est valide même pour les distributions dont les plus hauts moments n'existent pas.
Sommaire
Cumulants de quelques distributions discrètes
- La variable aléatoire constante X = 1. La dérivée de la fonction génératrice des cumulants est g'(t) = 1. Le premier cumulant est donc κ1 = g '(0) = 1 et tous les autres cumulants sont nuls, κ2 = κ3 = κ4 = ... = 0.
- La variable aléatoire Y = μ se déduit de la variable aléatoire précédente. La fonction génératrice des cumulants est donc gY(t) = gX(μt) = μt. Bref, chaque cumulant est juste μ fois les cumulants précédents. On a donc κ1 = g '(0) = μ et les autres cumulants sont nuls, κ2 = κ3 = κ4 = ... = 0.
- La loi de Bernoulli (nombre de succès dans une épreuve avec une probabilité de succès p). Le cas spécial p = 1 revient à la variable aléatoire X = 1. La fonction génératrice est g(t) = ln(pet + (1 − p)). Sa dérivée est g '(t) = ((p−1−1)·e−t + 1)−1. Finalement, les cumulants sont κ1 = g '(0) = p et κ2 = g ' '(0) = p·(1−p) . Les cumulants vérifient la formule de récurrence
- La loi géométrique (nombre de défaillances avant un succès, avec une probabilité de succès p à chaque expérience). La dérivée de la fonction génératrice des cumulants est g '(t) = ((1−p)−1·e−t−1)−1. Les premiers cumulants sont κ1 = g '(0) = p−1−1, et κ2 = g ' '(0) = κ1·p−1. En posant p = (μ+1)−1, on obtient g '(t) = ((μ−1+1)·e−t−1)−1 et κ1 = μ.
- La loi de Poisson. La dérivée de la fonction génératrice des cumulants est g '(t) = μ·et. Tous les cumulants sont égaux au paramètre: κ1 = κ2 = κ3 = ...=μ.
- La loi binomiale (n répétitions indépendantes de l'expérience de Bernouilli décrite plus haut). Chaque cumulant est juste n fois le cumulant associé de la loi de Bernouilli. La dérivée de la fonction génératrice des cumulants est g '(t) = n·((p−1−1)·e−t + 1)−1. Les premiers cumulants sont κ1 = g '(0) = n·p et κ2 = g ' '(0) = κ1·(1−p). En posant p = μ·n−1 cela donne g '(t) = ((μ−1−n−1)·e−t+n−1)−1 et κ1 = μ. Le cas limite n−1 = 0 est une loi de Poisson.
- La loi binomiale négative (nombre d'échecs avant n succès avec une probabilité de succès p à chaque expérience). Le cas spécial n = 1 est la loi géométrique. La dérivée de la fonction génératrice des cumulants est g '(t) = n·((1−p)−1·e−t−1)−1. Les premiers cumulants sont κ1 = g '(0) = n·(p−1−1) et κ2 = g ' '(0) = κ1·p−1. En posant p = (μ·n−1+1)−1, cela donne g '(t) = ((μ−1+n−1)·e−t−n−1)−1 et κ1 = μ. Comparer ces formules à celles de la loi binomial permet de justifier le nom de 'loi binomiale négative'. Le cas limite n−1 = 0 est encore la loi Poisson.
En introduisant
, les distributions précédentes donnent une formule unifiée pour la dérivée de la fonction génératrice des cumulants :
La dérivée seconde est
confirmant que le premier cumulant est κ1 = g '(0) = μ et que le second cumulant est κ2 = g ' '(0) = μ·ε. Les variables aléatoires constantes X = μ sont telles que є = 0. Les lois binomiales vérifient є = 1 − p si bien que 0<є<1. Les lois de Poisson vérifient є = 1 tandis que les lois binomiales négatives se caractérisent par є = p−1 si bien que є > 1. Il faut noter l'analogie avec l'excentricité des coniques: cercles є = 0, ellipses 0 < є < 1, paraboles є = 1, hyperboles є > 1.
Cumulants de certaines lois continues
- Pour la loi normale, d'espérance μ et de variance σ2, la dérivée de la fonction génératrice des cumulants est g '(t) = μ + σ2·t. Les cumulants sont donc κ1 = μ, κ2 = σ2, et κ3 = κ4 = ... = 0. Le cas spécial σ2 = 0 conduit à une variable constante: X = μ.
- Les cumulants pour la loi uniforme sur l'intervalle [−1, 0] sont κn = Bn/n, où Bn est le n-ième nombre de Bernoulli.
Quelques propriétés des cumulants
Invariance
Les cumulants vérifient pour tout variable aléatoire X et tout constante c les relations: κ1(X + c) = κ1(X) + c et κn(X + c) = κn(X) pour n ≥ 2. Pour résumer, c est ajouté au premier cumulant, et tous les cumulants d'ordre supérieur sont inchangés.
Homogénéité
Le n-ième cumulant est homogène de degré n, c'est-à-dire si c est une constante, alors:
- κn(cX) = cnκn(X).
Additivité
Si X et Y sont indépendants, alors κn(X + Y) = κn(X) + κn(Y).
Un résultat en demi-teinte
Sachant les résultats des cumulants de la loi normale, on pourrait espérer trouver des distributions pour lesquelles κm = κm+1 = ... = 0 pour un m>3, et où les cumulants d'ordre inférieur (ordres 3 à m -1) sont non-nuls. Il n'existe pas de telles distributions [3]. Ainsi, la fonction génératrice des cumulants ne peut être un polynôme de degré supérieur à 2.
Cumulants et moments
La fonction génératrice des moments est :
si bien que la fonction génératrice des cumulants est le logarithme de la fonction génératrice des moments. Le premier cumulant est l'espérance; les deuxième et troisième cumulants sont respectivement les deuxième et troisième moments centrés (le moment centré d'ordre 2 est la variance); mais les cumulants d'ordre supérieur ne sont pas égaux aux moments non-centrés, pas plus qu'aux moments centrés. Ce sont plutôt des polynômes de ces moments.
Les cumulants sont liés aux moments par la formule de récurrence :
Le n-ème moment μ′n est un polynôme de degré n des n premiers cumulants:
Les coefficients sont précisément ceux qui apparaissent dans la formule de Faà di Bruno.
Les moments μ′n ne doivent pas être confondus avec les moments centrés μn. Pour exprimer les moments centraux en fonction des cumulants, il suffit d'ignorer tous les termes dans lesquels on trouve le facteur κ1:
Lien avec la physique statistique
En physique statistique, un système à l'équilibre avec un bain thermique à température T = 1 / β peut occuper des états d'énergie E. Soit f(E) la densité d'états d'énergie E. La fonction de partition du système est donné par
- Z(β) = < exp( − βE) >
L'énergie libre du système est définie par
- F(β) = ( − 1 / β)log(Z)
L'énergie libre du système donne accès à l'ensemble des propriétés thermodynamiques du système comme son énergie interne, son entropie, sa chaleur spécifique…
Histoire
Les cumulants ont été introduits en 1889 par l'astronome, mathématicien et actuaire danois Thorvald Nicolai Thiele (1838 - 1910) in 1889. Thiele les appelle alors half-invariants (demi-invariants). Il faut attendre 1931 pour trouver l'appellation cumulants dans le papier, The derivation of the pattern formulae of two-way partitions from those of simpler patterns, Proceedings of the London Mathematical Society, Series 2, v. 33, pp. 195-208, par le grand statisticien Ronald Aylmer Fisher et par John Wishart. L'historien Stephen Stigler reporte que le nom cumulant fut suggéré à Fisher dans une lettre de Harold Hotelling. La fonction de partition en physique statistique pour l'ensemble canonique a été introduit par Josiah Willard Gibbs en 1901.
Voir aussi
- Fonction génératrice
- Fonction génératrice des moments
- Fonction caractéristique d'une variable aléatoire
Références
- Kendall, M.G., Stuart, A. (1969) The Advanced Theory of Statistics, Volume 1 (3rd Edition). Griffin, London. (Section 3.12)
- Lukacs, E. (1970) Characteristic Functions (2nd Edition). Griffin, London. (Page 27)
- Lukacs, E. (1970) Characteristic Functions (2nd Edition), Griffin, London. (Theorem 7.3.5)
Liens externes
- Cumulant, un article de Eric W. Weisstein, sur mathworld
- Portail des probabilités et des statistiques
Wikimedia Foundation. 2010.