Matrice de Tikhonov

Matrice de Tikhonov

Régularisation Tychonoff

La régularisation Tychonoff est la méthode de régularisation la plus utilisée pour la résolution de problèmes qui ne sont pas bien posés ainsi que pour les problèmes inverses. Elle a été imaginée par le mathématicien russe Andreï Nikolaïevitch Tikhonov. En statistique, la méthode est également connue sous le nom de régression d'arête (ridge regression). Elle est connexe à l'algorithme de Levenberg-Marquardt pour la résolution de problèmes non-linéaires de moindres carrés.

Sommaire

Développement

Problème

L'approche classique pour résoudre un système d'équations linéaires surdéterminées exprimées par

A\mathbf{x}=\mathbf{b}

est connue comme la méthode des moindres carrés et consiste à minimiser le résidu

\|A\mathbf{x}-\mathbf{b}\|^2

\| \cdot \| est la norme euclidienne. Cependant, la matrice A peut-être mal conditionnée ou non inversible, conduisant à un grand nombre de solutions.

Régularisation

Dans le but de privilégier une solution particulière dotée de propriétés qui semblent pertinentes, un terme de régularisation est introduit dans la minimisation :

\|A\mathbf{x}-\mathbf{b}\|^2+ \|\Gamma \mathbf{x}\|^2

Γ, la « matrice de Tikhonov » doit être judicieusement choisie pour le problème considéré. x est le vecteur que l'on cherche à exprimer. x est souvent une approximation discrétisée d'une fonction continue. Dans de nombreux cas, la matrice Γ est la Matrice identité Γ = I, ce qui favorise les solutions dont les normes sont petites. Dans d'autres cas des opérateurs passe-haut, par exemple un Opérateur de différence ou un opérateur de Fourier pondéré peut être utilisé pour éliminer les variations rapides de la fonction lorsque l'on a de bonnes raisons de croire que le vecteur x est l'approximation d'une fonction continue.

Cette régularisation améliore le conditionnement du problème, permettant ainsi de trouver une solution numérique.

Solution

Une solution numérique que l'on va appeler \hat{x} est donnée par:

\hat{x} = (A^{T}A+ \Gamma^{T} \Gamma )^{-1}A^{T}\mathbf{b}

L'effet de la régularisation dépend du choix de la matrice Γ. Lorsque Γ = 0, on en revient au cas de la solution, non régularisée, des moindres carrés, pourvu que (ATA)−1 existe.

Notes et références


Voir aussi

Articles connexes

Sources

  • Dans sa version du 15 août 2008, cet article est, en gros, une traduction de l'article de la wikipédia anglaise qui donne la bibliographie suivante:
  • Tikhonov AN, 1943, On the stability of inverse problems, Dokl. Akad. Nauk SSSR, 39, No. 5, 195-198
  • Tikhonov AN, 1963, Solution of incorrectly formulated problems and the regularization method, Soviet Math Dokl 4, 1035-1038 English translation of Dokl Akad Nauk SSSR 151, 1963, 501-504
  • Tikhonov AN and Arsenin VA, 1977, Solution of Ill-posed Problems, Winston & Sons, Washington, ISBN 0-470-99124-0.
  • Hansen, P.C., 1998, Rank-deficient and Discrete ill-posed problems, SIAM
  • Hoerl AE, 1962, Application of ridge analysis to regression problems, Chemical Engineering Progress, 58, 54-59.
  • Foster M, 1961, An application of the Wiener-Kolmogorov smoothing theory to matrix inversion, J. SIAM, 9, 387-392
  • Phillips DL, 1962, A technique for the numerical solution of certain integral equations of the first kind, J Assoc Comput Mach, 9, 84-97
  • Tarantola A, 2004, Inverse Problem Theory (free PDF version), Society for Industrial and Applied Mathematics, ISBN 0-89871-572-5
  • Wahba, G, 1990, spline Models for Observational Data, SIAM

Liens externes

  • Portail des mathématiques Portail des mathématiques
Ce document provient de « R%C3%A9gularisation Tychonoff ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Matrice de Tikhonov de Wikipédia en français (auteurs)

Игры ⚽ Нужен реферат?

Regardez d'autres dictionnaires:

  • Régularisation Tikhonov — Régularisation Tychonoff La régularisation Tychonoff est la méthode de régularisation la plus utilisée pour la résolution de problèmes qui ne sont pas bien posés ainsi que pour les problèmes inverses. Elle a été imaginée par le mathématicien… …   Wikipédia en Français

  • Régularisation de Tikhonov — Régularisation Tychonoff La régularisation Tychonoff est la méthode de régularisation la plus utilisée pour la résolution de problèmes qui ne sont pas bien posés ainsi que pour les problèmes inverses. Elle a été imaginée par le mathématicien… …   Wikipédia en Français

  • Régularisation Tychonoff — La régularisation Tychonoff est la méthode de régularisation la plus utilisée pour la résolution de problèmes qui ne sont pas bien posés ainsi que pour les problèmes inverses. Elle a été imaginée par le mathématicien russe Andreï Nikolaïevitch… …   Wikipédia en Français

  • Régression d'arête — Régularisation Tychonoff La régularisation Tychonoff est la méthode de régularisation la plus utilisée pour la résolution de problèmes qui ne sont pas bien posés ainsi que pour les problèmes inverses. Elle a été imaginée par le mathématicien… …   Wikipédia en Français

  • Liste des articles de mathematiques — Projet:Mathématiques/Liste des articles de mathématiques Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou probabilités et statistiques via l un des trois bandeaux suivants  …   Wikipédia en Français

  • Projet:Mathématiques/Liste des articles de mathématiques — Cette page n est plus mise à jour depuis l arrêt de DumZiBoT. Pour demander sa remise en service, faire une requête sur WP:RBOT Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou… …   Wikipédia en Français

  • Pseudoinverse — Pseudo inverse En algèbre linéaire, la notion de pseudo inverse (ou inverse généralisé) généralise celle d’inverse d’une application linéaire ou d’une matrice[1] aux cas non inversibles en lui supprimant certaines des propriétés demandées aux… …   Wikipédia en Français

  • Linear least squares — is an important computational problem, that arises primarily in applications when it is desired to fit a linear mathematical model to measurements obtained from experiments. The goals of linear least squares are to extract predictions from the… …   Wikipedia

  • Linear least squares/Proposed — Linear least squares is an important computational problem, that arises primarily in applications when it is desired to fit a linear mathematical model to observations obtained from experiments. Mathematically, it can be stated as the problem of… …   Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”