Theorie de Vapnik-Chervonenkis
- Theorie de Vapnik-Chervonenkis
-
Théorie de Vapnik-Chervonenkis
La théorie de Vapnik-Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960-1990 par Vladimir Vapnik et Alexey Chervonenkis. C'est une forme de théorie de l'apprentissage automatique, qui tente d'expliquer l'apprentissage d'un point de vue statistique.
La théorie VC est liée à la théorie d'étude statistique et aux processus empiriques. Richard M. Dudley, R.S. Wenocur et Vladimir Vapnik lui-même, entre autres, appliquèrent cette théorie aux processus empiriques.
Cette théorie est basée sur quatre questions fondamentales :
- Théorie d'uniformité des apprentissages
- Quelles sont des conditions (nécessaires et suffisantes) pour l'uniformité d'un apprentissage basé sur le principe empirique de minimisation du risque ?
- Théorie du taux de convergence des apprentissages
- Quelle est la vitesse de la convergence de l'apprentissage ?
- Théorie du contrôle de la capacité d'apprentissage automatique
- Comment commander le taux de convergence (la capacité de généralisation) de l'apprentissage automatique ?
- Théorie de construction des machines à apprentissage automatique
- Comment créer des algorithmes qui peuvent commander cet apprentissage ?
La théorie VC et la dimension VC sont indissociables dans la théorie des processus empiriques.
La dernière partie de la théorie présente un algorithme bien connu dans le monde de l'intelligence artificielle : la Machine à vecteurs de support.
La théorie VC contient des concepts importants tels que la dimension VC et la minimisation structurale du risque. Cette théorie est directement liée à certains sujets mathématiques :
- la théorie de Hilbert
- les réseaux de régularisation
- les kernels
- les processus empiriques
Liens internes
Sources
- (en) Cet article est partiellement ou en totalité issu d’une traduction de l’article de Wikipédia en anglais intitulé « Vapnik-Chervonenkis theory ».
- The Nature of Statistical Learning Theory
- Portail des mathématiques
- Portail de l’informatique
Catégories : Informatique théorique | Apprentissage automatique
Wikimedia Foundation.
2010.
Contenu soumis à la licence CC-BY-SA. Source : Article Theorie de Vapnik-Chervonenkis de Wikipédia en français (auteurs)
Regardez d'autres dictionnaires:
Théorie de vapnik-chervonenkis — La théorie de Vapnik Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une forme de théorie de l… … Wikipédia en Français
Théorie de Vapnik-Chervonenkis — La théorie de Vapnik Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une forme de théorie de l… … Wikipédia en Français
Vladimir Vapnik — Vladimir Naumovich Vapnik (6 décembre 1935) est l un des principaux contributeurs à la théorie de Vapnik Chervonenkis. Né en Union Soviétique, il obtient en 1958 un mastère de mathématiques à l Université d État d Ouzbékistan, à Samarkand, en… … Wikipédia en Français
Alexey Chervonenkis — mathématicien russe né le 7 septembre 1938, est l un des principaux artisans de la théorie de Vapnik Chervonenkis, contribution importante à la théorie de l apprentissage automatique. Sommaire 1 Bibliographie 2 Liens internes 3 … Wikipédia en Français
Pulverisation — Pulvérisation Traduction à relire Shattering → … Wikipédia en Français
Pulvérisation (mathématiques) — Pour les articles homonymes, voir Pulvérisation. Le concept de pulvérisation d un ensemble de points joue un rôle important dans la théorie de Vapnik Chervonenkis, également connue sous le nom de théorie VC. La pulvérisation et la théorie VC sont … Wikipédia en Français
Dimension VC — Dans la théorie de l apprentissage automatique, la Dimension VC (pour dimension de Vapnik Chervonenkis) est une mesure de la capacité d un algorithme de classification statistique, définie comme le cardinal du plus grand ensemble de points que l… … Wikipédia en Français
Machine à vecteurs de support — Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de discrimination[note 1] et de régression. Les… … Wikipédia en Français
Machine a vecteurs de support — Machine à vecteurs de support Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de… … Wikipédia en Français
Machine À Vecteurs De Support — Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de discrimination[1] et de régression. Les SVM… … Wikipédia en Français