- Algorithme à régions de confiance
-
Un algorithme à régions de confiance est un algorithme d'optimisation différentiable (l'optimisation dont il est question ici est une branche des mathématiques), destiné à minimiser une fonction réelle définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, l'algorithme effectue un déplacement qui est obtenu en minimisant un modèle simple de la fonction (par exemple quadratique) sur une région de confiance (généralement une boule dont le rayon est appelé le rayon de confiance du modèle). Le rayon de confiance est ajusté de manière à faire décroître suffisamment la fonction à chaque itération.
Cette approche algorithmique peut être vue comme une technique de globalisation, c'est-à-dire une méthode permettant d'obtenir la convergence des itérés (sous certaines conditions) quel que soit l'itéré initial choisi. Elle s'apparente ainsi aux algorithmes à directions de descente en améliorant légèrement (mais parfois de manière décisive) leurs résultats de convergence. La conception des algorithmes à régions de confiance est cependant plus compliquée que celle des algorithmes à directions de descente, ce qui limite parfois leur application (par exemple aux grands problèmes de moindres-carrés sans possibilité de calcul de la jacobienne des résidus).
Le principe des régions de confiance est très général et s'étend (parfois avec peine) à d'autres problèmes classiques de l'optimisation : optimisation non lisse, optimisation avec contraintes, etc.
Sommaire
Principes de l'algorithme
Soient est un espace hilbertien (produit scalaire noté et norme associée notée ) et une fonction différentiable. On note f'(x) et la dérivée et le gradient de f en x, si bien que
Comparaison avec les algorithmes avec recherche linéaire
Comparaison de la recherche linéaire et des régions de confiance Recherche linéaire Région de confiance On se donne une direction de descente dk de f en xk On se donne un modèle ψk de f en xk On adapte le pas αk > 0 le long de dk pour faire décroître f On adapte le rayon de confiance Δk > 0 pour faire décroître f Le déplacement sk = αkdk est aligné sur dk (recherche linéaire) Le déplacement sk change d'orientation avec Δk (recherche curviligne) Facile à mettre en œuvre Difficile à mettre en œuvre Résultats de convergence faibles Résultats de convergence renforcés Annexes
Articles connexes
Lien externe
- J. Ch. Gilbert, Éléments d'Optimisation Différentiable — Théorie et Algorithmes, syllabus de cours à l'ENSTA ParisTech, Paris.
Ouvrage de référence
- (en) A. R. Conn, N. I. M. Gould, Ph. L. Toint (2000). Trust-Region Methods. MPS-SIAM Series on Optimization 1. SIAM and MPS, Philadelphia.
Catégories :- Algorithme d'optimisation
- Algorithme d'optimisation différentiable
Wikimedia Foundation. 2010.