- Méthode de Quasi-Newton
-
La méthode de Quasi-Newton est une méthode numérique utilisée pour résoudre des systèmes d'équations non linéaires. Typiquement, le problème que résout une méthode de Quasi-Newton est f(x) = 0 avec dont on ne connaît pas forcément l'expression analytique.
Pour de tels problèmes, il est en général possible d'utiliser la méthode de Newton-Raphson, dont les itérations sont , mais celle-ci pose quelques problèmes pratiques :
- si le système est assez grand, le calcul de la matrice jacobienne est très long,
- de même, la résolution du système linéaire est une opération coûteuse en calculs.
L'idée des méthodes Quasi-Newton est de remplacer Df(xk) − 1 par une matrice Bk plus facile à calculer, et à laquelle on peut imposer certaines propriétés. Le fait qu'elle soit une approximation de l'inverse du jacobien se traduit par la relation de Quasi-Newton,
- ,
ce qui est manifestement la généralisation du coefficient utilisé dans la méthode de la sécante.
Les itérations des méthodes de Quasi-Newton sont alors de la forme suivante :
Dans cette formule, ρk est un coefficient choisi pour optimiser la convergence, et Bk est mise à jour à chaque itération selon une formule particulière. Selon les méthodes de Quasi-Newton, la formule de mise à jour varie.
Souvent on applique la méthode à la recherche d'un minimum d'une fonction g(x) que l'on traduit en la recherche de . Dans ce cas il est naturel d'imposer à la matrice Bk qu'elle soit symétrique, car elle correspond alors à la matrice hessienne de g.
Sommaire
Méthode de Broyden
Ici la mise à jour de la matrice Bk s'écrit
avec sk = xk + 1 − xk, yk = f(xk + 1) − f(xk). Cette méthode s'applique au cas général où le jacobien n'a pas de raison d'être symétrique.
Méthode de Davidon-Fletcher-Powell
C'est historiquement la première méthode quasi-Newton appliquée à l'optimisation, c'est-à-dire au calcul d'un extremum d'une fonction. Par conséquent, elle impose la symétrie des matrices Bk. En effet, ici ces matrices sont censées représenter une approximation de l'inverse de la matrice hessienne de la fonction à minimiser. La symétrie de ces approximations est assurée par le fait qu'on utilise une mise à jour d'une forme particulièrement simple, (voir ci-dessous).
On initialise B0 = I et x0 assez proche de la solution qu'on cherche. Les itérations sont les suivantes:
- On calcule d'abord la direction de déplacement: dk = − Bkf(xk)
- le coefficient ρk s'en déduit, il est nécessairement strictement positif et choisi pour minimiser f(xk + ρkdk)
- on trouve le k + 1e terme de la suite
- Bk + 1 est calculé par la formule de Davidon-Fletcher-Powell
- avec, comme ci-dessus, yk = f(xk + 1) − f(xk) et sk = xk + 1 − xk.
La méthode DFP a des propriétés satisfaisantes, mais dans la pratique elle est aujourd'hui en général remplacée par la méthode de Broyden-Fletcher-Goldfarb-Shanno (BFGS) qui est encore plus efficace.
Voir aussi
Sources
- Un cours d'optimisation traitant des méthodes de Quasi-Newton
- Méthodes numériques itératives, Claude Brezinski, Michela Redivo-Zaglia, Éditions Ellipses
Wikimedia Foundation. 2010.