Entropie de Rényi

Entropie de Rényi

L'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire.

Définition formelle

L'entropie de Rényi d'une variable aléatoire discrète x à n valeurs possibles est définie par la formule :

R(x)= \frac{1}{1-\alpha}\log_2{\mathbf E [p(i)^{\alpha-1}]} = \frac{1}{1-\alpha}\log_2 \left( \sum_{i=1}^np(i)^\alpha \right)

\mathbf E est l'espérance mathématique, α > 0 et \alpha \neq 1.

Voir aussi

  • Entropie de Shannon
  • (en) A. Rényi, On measures of entropy and information, in Proc. 4th Berkeley Symposium on Mathematical Statistics and Probability. vol. 1, 1960, p. 547-561.

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Entropie de Rényi de Wikipédia en français (auteurs)

Игры ⚽ Поможем написать реферат

Regardez d'autres dictionnaires:

  • Entropie De Rényi — L entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d information contenue dans la probabilité de collision d une variable aléatoire. Définition formelle L entropie de Rényi d une variable aléatoire …   Wikipédia en Français

  • Entropie de Renyi — Entropie de Rényi L entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d information contenue dans la probabilité de collision d une variable aléatoire. Définition formelle L entropie de Rényi d une… …   Wikipédia en Français

  • Entropie de rényi — L entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d information contenue dans la probabilité de collision d une variable aléatoire. Définition formelle L entropie de Rényi d une variable aléatoire …   Wikipédia en Français

  • Entropie De Shannon — L entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d information contenue ou délivrée par une source d information. Cette source peut être un texte écrit dans une langue donnée …   Wikipédia en Français

  • Entropie de shannon — L entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d information contenue ou délivrée par une source d information. Cette source peut être un texte écrit dans une langue donnée …   Wikipédia en Français

  • Entropie (Homonymie) — Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom …   Wikipédia en Français

  • Renyi-Entropie — In der Informationstheorie ist die Rényi Entropie (benannt nach Alfréd Rényi) eine Verallgemeinerung der Shannon Entropie. Die Rényi Entropie gehört zu der Familie von Funktionen, die zum Quantifizieren der Mannigfaltigkeit, Ungewissheit oder… …   Deutsch Wikipedia

  • Rényi — Alfréd Rényi. Alfréd Rényi [ˈɒlfreːd ˈreːɲi] (* 20. März 1921 in Budapest; † 1. Februar 1970 ebenda) war ein ungarischer Mathematiker. Rényi war Mathematiker und lehrte als Professor und war Mitglied der Ungarischen Akademie der …   Deutsch Wikipedia

  • Rényi-Entropie — In der Informationstheorie ist die Rényi Entropie (benannt nach Alfréd Rényi) eine Verallgemeinerung der Shannon Entropie. Die Rényi Entropie gehört zu der Familie von Funktionen, die zum Quantifizieren der Mannigfaltigkeit, Ungewissheit oder… …   Deutsch Wikipedia

  • Entropie de Shannon — L entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d information contenue ou délivrée par une source d information. Cette source peut être un texte écrit dans une langue donnée …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”