Théorie de Vapnik-Chervonenkis

Théorie de Vapnik-Chervonenkis

La théorie de Vapnik-Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960-1990 par Vladimir Vapnik et Alexey Chervonenkis. C'est une forme de théorie de l'apprentissage automatique, qui tente d'expliquer l'apprentissage d'un point de vue statistique.

La théorie VC est liée à la théorie d'étude statistique et aux processus empiriques. Richard M. Dudley, R.S. Wenocur et Vladimir Vapnik lui-même, entre autres, appliquèrent cette théorie aux processus empiriques.

Cette théorie est basée sur quatre questions fondamentales :

  • Théorie d'uniformité des apprentissages
    • Quelles sont les conditions (nécessaires et suffisantes) pour l'uniformité d'un apprentissage basé sur le principe empirique de minimisation du risque ?
  • Théorie du taux de convergence des apprentissages
    • Quelle est la vitesse de la convergence de l'apprentissage ?
  • Théorie du contrôle de la capacité d'apprentissage automatique
    • Comment commander le taux de convergence (la capacité de généralisation) de l'apprentissage automatique ?
  • Théorie de construction des machines à apprentissage automatique
    • Comment créer des algorithmes qui peuvent commander cet apprentissage ?

La théorie VC et la dimension VC sont indissociables dans la théorie des processus empiriques.

La dernière partie de la théorie présente un algorithme bien connu dans le monde de l'intelligence artificielle : la machine à vecteurs de support.

La théorie VC contient des concepts importants tels que la dimension VC et la minimisation structurale du risque. Cette théorie est directement liée à certains sujets mathématiques :

  • la théorie des espaces de Hilbert à noyau reproduisant (en)
  • les réseaux de régularisation (en)
  • les kernels
  • les processus empiriques (en)

Articles connexes

Sources


Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Théorie de Vapnik-Chervonenkis de Wikipédia en français (auteurs)

Игры ⚽ Поможем сделать НИР

Regardez d'autres dictionnaires:

  • Theorie de Vapnik-Chervonenkis — Théorie de Vapnik Chervonenkis La théorie de Vapnik Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une… …   Wikipédia en Français

  • Théorie de vapnik-chervonenkis — La théorie de Vapnik Chervonenkis (également connue sous le nom de théorie VC) est une théorie mathématique et informatique développée dans les années 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une forme de théorie de l… …   Wikipédia en Français

  • Vladimir Vapnik — Vladimir Naumovich Vapnik (6 décembre 1935) est l un des principaux contributeurs à la théorie de Vapnik Chervonenkis. Né en Union Soviétique, il obtient en 1958 un mastère de mathématiques à l Université d État d Ouzbékistan, à Samarkand, en… …   Wikipédia en Français

  • Alexey Chervonenkis — mathématicien russe né le 7 septembre 1938, est l un des principaux artisans de la théorie de Vapnik Chervonenkis, contribution importante à la théorie de l apprentissage automatique. Sommaire 1 Bibliographie 2 Liens internes 3 …   Wikipédia en Français

  • Pulverisation — Pulvérisation Traduction à relire Shattering → …   Wikipédia en Français

  • Pulvérisation (mathématiques) — Pour les articles homonymes, voir Pulvérisation. Le concept de pulvérisation d un ensemble de points joue un rôle important dans la théorie de Vapnik Chervonenkis, également connue sous le nom de théorie VC. La pulvérisation et la théorie VC sont …   Wikipédia en Français

  • Dimension VC — Dans la théorie de l apprentissage automatique, la Dimension VC (pour dimension de Vapnik Chervonenkis) est une mesure de la capacité d un algorithme de classification statistique, définie comme le cardinal du plus grand ensemble de points que l… …   Wikipédia en Français

  • Machine à vecteurs de support — Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de discrimination[note 1] et de régression. Les… …   Wikipédia en Français

  • Machine a vecteurs de support — Machine à vecteurs de support Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de… …   Wikipédia en Français

  • Machine À Vecteurs De Support — Les machines à vecteurs de support ou séparateurs à vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervisé destinées à résoudre des problèmes de discrimination[1] et de régression. Les SVM… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”