- Théorème de cox-jaynes
-
Théorème de Cox-Jaynes
Le théorème de Cox-Jaynes (1946) est une codification des processus d'apprentissage à partir d'un certain ensemble de postulats. Cette codification se trouve coïncider au terme de ces considérations avec celle - historiquement d'origine toute différente - de probabilité. Il tient son nom du physicien Richard Cox qui en a formulé la version originale.Elle induit donc une interprétation « logique » des probabilités indépendante de celle de fréquence. Elle fournit également une base rationnelle au mécanisme d'induction logique, et donc de l'apprentissage par des machines. Qui plus est, le théorème invalide - dans les conditions des postulats - toute autre forme de représentation de la connaissance comme biaisée. Il s'agit donc d'un résultat extrêmement fort. (source : Myron Tribus, Décisions rationnelles dans l'incertain, Masson, 1974)
Les résultats de Cox n'avaient touché qu'une audience réduite avant qu'E.T. Jaynes ne redécouvre ce théorème et n'en défriche une série d'implications pour les méthodes bayésiennes, et Irving John Good pour l'intelligence artificielle.
Sommaire
Problèmes de validité de la démarche inductive avant Cox
Réserves de Bertrand Russell
Dans le chapitre « La science est-elle superstitieuse ? » de son ouvrage Science et religion, Bertrand Russell énonce le problème - il ose même le mot de scandale - posé par l'induction :
- Au nom de quoi affirmer, même de façon provisoire, que ce qui a été vérifié dans un nombre limité de cas se vérifiera aussi dans les cas qui n'ont pas été testés ?
- Au nom de quoi supposer, même sur ce qui a été mesuré, que ce qui a été vrai hier le sera toujours demain ?
Paradoxe de Hempel
Ce paradoxe visait à montrer une faille dans le mécanisme d'induction, qui imposait que le domaine de validité de celui-ci fût précisé de façon plus rigoureuse : le contexte de ce dont on parle doit être toujours mentionné. Ainsi le comptage des oiseaux à la fois non-blancs et non-corbeaux dans une chambre ne renseigne pas sur la probabilité que tous les corbeaux soient blancs, mais que tous les corbeaux soient blancs dans cette chambre - affirmation parfaitement exacte quand il n'y a aucun corbeau dans la chambre, en vertu de la relation (qui définit l'implication)
(p => q) <=> (p & q) | ~p
Détails dans l'article Paradoxe de Hempel, dit de l'ornithologie en chambre.
Les « desiderata » (axiomes)
Cox cherche à poser les desiderata souhaitables pour un robot qui raisonnerait selon une logique inductive :
Les degrés de plausibilité sont représentés par des nombres réels
- Il faut bien en effet pouvoir à tout moment dire de deux plausibilités laquelle est plus grande que l'autre, ce qui suggère une représentation quantitative, et la forme numérique semble commode.
- Une représentation entière poserait un problème de bruit discret, aucune plausibilité ne pouvant se glisser entre deux représentées par des entiers successifs.
- Des rationnels conviendraient certes, mais si tous les réels ne sont pas des rationnels, tous les rationnels sont en revanche bien des réels.
La convention adoptée, arbitrairement, est que des plausibilités plus grandes seront représentées par des nombres plus grands.
Les règles d'inférence ne doivent pas contredire les règles d'inférence communes
En d'autres termes, ce qui nous paraît évident ne doit pas être contredit par le modèle (à la différence de ce qui se passe avec le paradoxe de Condorcet).
Exemple :
- si A est préférable à B,
- et B préférable à C,
- toutes choses égales par ailleurs et en l'absence de B, A doit être préféré à C.
Pour les cinq sections suivantes, toutes les formules sont ici :- Cox-Jaynes (PDF)
Règle de cohérence
Si une conclusion peut être obtenue par plus d'un moyen, alors tous ces moyens doivent bien donner le même résultat.
Cette règle élimine du champ d'examen les heuristiques multiples dès lors qu'elles pourraient contenir entre elles des contradictions (comme le font par exemple parfois les critères de Wald et du minimax en théorie des jeux).
Règle d'honnêteté
Le robot doit toujours prendre en compte la totalité de l'information qui lui est fournie. Il ne doit pas en ignorer délibérément une partie et fonder ses conclusions sur le reste. En d'autres termes, le robot doit être totalement non idéologique, neutre de point de vue.
Règle de reproductibilité
Le robot représente des états de connaissance équivalents par des plausibilités équivalentes. Si deux problèmes sont identiques à un simple étiquetage de propositions près, le robot doit assigner les mêmes plausibilités dans les deux cas.
Cela signifie en particulier que des propositions seront considérées a priori comme de plausibilité équivalente quand elles ne se distinguent que par leur nom - ce qui n'arrive guère que dans des cas très particuliers, comme une pièce ou un dé ayant satisfait à des critères de non-pipage.
Les règles quantitatives (lois de composition interne)
La règle de somme
Sans rentrer dans les équations, l'idée est que lorsque deux plausibilités du même état se composent, la plausibilité composée est nécessairement égale ou supérieure à la plus grande des deux[1].
La règle de produit
Il s'agit ici du cas inverse : quand deux plausibilités doivent toutes deux être vérifiées pour qu'un état puisse exister, cet état ne peut avoir de plausibilité plus grande que la plus petite des deux précédentes[2].
Les résultats
Exemple
La notation d'I.J Good (weight of evidence)
Alan Turing avait fait remarquer en son temps que l'expression des probabilités était beaucoup plus facile à manier en remplaçant une probabilité p variant de 0 à 1 par l'expression ln (p/(1-p)) variant entre moins l'infini et plus l'infini. En particulier, sous cette forme, un apport d'information par la règle de Bayes se traduit par l'ajout d'une quantité algébrique unique à cette expression (que Turing nommait log-odd), cela quelle que soit la probabilité a priori de départ avant l'observation.
en décibels (dB)
Irving John Good reprit cette idée, mais pour faciliter le travail avec ces nouvelles quantités :
- utilisa un logarithme décimal plutôt que naturel, afin que l'ordre de grandeur de la probabilité associée apparaisse à simple lecture.
- adopta un facteur 10 afin d'éviter la complication de manier des quantités décimales, là où une précision de 1% suffisait.
Il nomma la mesure correspondante, W = 10 log10 (p/(1-p)), weight of evidence parce qu'elle permettait de « peser » le témoignage des faits en fonction des attentes - manifestées par des probabilités « subjectives » antérieures à l'observation - de façon indépendante de ces attentes[3].
en bits
Les évidences sont parfois exprimées aussi en bits, en particulier dans les tests de validité de lois scalantes. Quand une loi comme la loi de Zipf ou de Mandelbrot s'ajuste en effet mieux aux données qu'une autre loi ne nécessitant pas de tri préalable, il faut en effet tenir compte du fait que ce tri a représenté un apport d'information de l'ordre de N log2N et que c'est peut-être lui seul qui est responsable de ce meilleur ajustement ! Si le gain d'évidence apporté par le tri représente moins de bits que celui qu'a coûté le tri, cela signifie que l'information apportée par la considération d'une loi scalante est en fait nulle.
Conséquences du théorème
Unification de l'algèbre de Boole et de la théorie des probabilités
On remarque que l'algèbre de Boole est isomorphe à la théorie des probabilités réduite aux seules valeurs 0 et 1.
- Et logique = produit de probabilités
- Ou logique = somme moins produit de deux probabilités (p+p'-p.p')
- Non logique = inversion d'une probabilité (p -> 1-p)
Cette considération conduisit à l'invention dans les années 1970 des calculateurs stochastiques promus par la société Alsthom (qui s'écrivait avec un h à l'époque) et qui entendaient combiner le faible coût des circuits de commutation avec la puissance de traitement des calculateurs analogiques. Quelques-uns furent réalisés à l'époque.
Abandon du paradigme « fréquentiste »
Bases rationnelles de l'apprentissage machine
Limitations importantes du théorème
Un paradoxe apparent
Chaque discipline possède ses mesures favorites : si la thermique s'occupe principalement de températures, la thermodynamique sera plus attachée à des mesures de quantité de chaleur, voire d'entropie. L'électrostatique s'intéresse plus aux tensions qu'aux intensités, tandis que c'est l'inverse pour les courants faibles, et qu'en électrotechnique c'est davantage en termes de puissance qu'on aura tendance à raisonner. Selon sa discipline d'origine, chaque expérimentateur tendra à effectuer ses estimatiions sur les unités auxquelles il est habitué.
Dans le cas d'un montage électrique, un spécialiste d'électrotechnique fera peut-être une estimation de puissance dissipée (Ri²) tandis qu'un autre de courants faibles préférera estimer l'intensité elle-même (i). Si la convergence à terme des estimations est assurée dans les deux cas, elle ne se fera pas de la même façon, même avec des distributions a priori identiques, car l'espérance mathématique d'un carré n'est pas mathématiquement liée au carré d'une espérance. Il s'agit là de la principale pierre d'achoppement des méthodes bayésiennes.
Le rôle du langage (formatage)
Indépendamment des probabilités a priori que nous attribuons aux événements, nos estimations sont également en partie "formatées" par le langage et la "déformation professionnelle" qui s'y attachent. Concrètement, cela rappelle qu'il n'existe pas seulement une, mais deux sources d'arbitraire dans les méthodes bayésiennes : celle, de mesure, qui entache les probabilités a priori choisies et celle, de méthode, qui correspond à notre représentation du problème. En revanche, l'arbitraire se limite à ces deux éléments, et les méthodes bayésiennes sont ensuite totalement impersonnelles.
Notes et références
- ↑ Le raisonnement plausible
- ↑ Les règles quantitatives
- ↑ Myron Tribus, Décisions rationnelles dans l'incertain, Traduction française de Jacques Pézier, Masson, 1974
Voir aussi
Articles connexes
Liens externes
- Niels Henrik Abel "Untersuchung der Functionen zweier unabhängig veränderlichen Gröszen x und y, wie f(x, y), welche die Eigenschaft haben, dasz f[z, f(x,y)] eine symmetrische Function von z, x und y ist.", Jour. Reine u. angew. Math. (Crelle's Jour.), 1, 11–15, (1826).
- R. T. Cox, "Probability, Frequency, and Reasonable Expectation," Am. Jour. Phys., 14, 1–13, (1946).
- R. T. Cox, The Algebra of Probable Inference, Johns Hopkins University Press, Baltimore, MD, (1961).
- Janos Aczél, Lectures on Functional Equations and their Applications, Academic Press, New York, (1966).
- Terrence L. Fine, Theories of Probability; An examination of foundations, Academic Press, New York, (1973).
- Edwin Thompson Jaynes, Probability Theory: The Logic of Science, Cambridge University Press (2003). — preprint version (1996) at http://omega.albany.edu:8008/JaynesBook.html; Chapters 1 to 3 of published version at http://bayes.wustl.edu/etj/prob/book.pdf
- Joseph Y. Halpern, "A counterexample to theorems of Cox and Fine," Journal of AI research, 10, 67–85 (1999) — http://www.cs.washington.edu/research/jair/abstracts/halpern99a.html
- Joseph Y. Halpern, "Technical Addendum, Cox's theorem Revisited," Journal of AI research, 11, 429–435 (1999) — http://www.cs.washington.edu/research/jair/abstracts/halpern99b.html
- Stefan Arnborg and Gunnar Sjödin, On the foundations of Bayesianism, Preprint: Nada, KTH (1999) — ftp://ftp.nada.kth.se/pub/documents/Theory/Stefan-Arnborg/06arnborg.ps — ftp://ftp.nada.kth.se/pub/documents/Theory/Stefan-Arnborg/06arnborg.pdf
- Stefan Arnborg and Gunnar Sjödin, A note on the foundations of Bayesianism, Preprint: Nada, KTH (2000a) — ftp://ftp.nada.kth.se/pub/documents/Theory/Stefan-Arnborg/fobshle.ps — ftp://ftp.nada.kth.se/pub/documents/Theory/Stefan-Arnborg/fobshle.pdf
- Stefan Arnborg and Gunnar Sjödin, "Bayes rules in finite models," in European Conference on Artificial Intelligence, Berlin, (2000b) — ftp://ftp.nada.kth.se/pub/documents/Theory/Stefan-Arnborg/fobc1.ps — ftp://ftp.nada.kth.se/pub/documents/Theory/Stefan-Arnborg/fobc1.pdf
- Michael Hardy, "Scaled Boolean algebras", Advances in Applied Mathematics, August 2002, pages 243–292 (or preprint); Hardy has said, "I assert there that I think Cox's assumptions are too strong, although I don't really say why. I do say what I would replace them with." (The quote is from a Wikipedia discussion page, not from the article.)
- Kevin S. Van Horn, "Constructing a logic of plausible inference: a guide to Cox’s theorem", International Journal of Approximate Reasoning, Volume 34, Issue 1, September 2003, Pages 3–24. (Or through Citeseer page.)
- Portail des mathématiques
Catégories : Probabilités | Théorème d'informatique | Apprentissage automatique
Wikimedia Foundation. 2010.