- Méthode de Newton
-
En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson[1] est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle. Cette méthode doit son nom aux mathématiciens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-être 1648-1715), qui furent les premiers à la décrire pour la recherche des zéros d'une équation polynomiale. On n'oubliera pas Thomas Simpson (1710-1761) qui élargit considérablement le domaine d'application de l'algorithme en montrant, grâce à la notion de dérivée, comment on pouvait l'utiliser pour calculer un zéro d'une équation non linéaire, pouvant ne pas être un polynôme, et d'un système formé de telles équations.
Sous sa forme moderne, l'algorithme peut être présenté brièvement comme suit : à chaque itération, la fonction dont on cherche un zéro est linéarisée en l'itéré (ou point) courant et l'itéré suivant est pris égal au zéro de la fonction linéarisée. Cette description sommaire indique qu'au moins deux conditions sont requises pour la bonne marche de l'algorithme : la fonction doit être différentiable aux points visités (pour pouvoir y linéariser la fonction) et les dérivées ne doivent pas s'y annuler (pour que la fonction linéarisée ait un zéro) ; s'ajoute à ces conditions la contrainte forte de devoir prendre le premier itéré assez proche d'un zéro régulier de la fonction (i.e., en lequel la dérivée de la fonction ne s'annule pas), pour que la convergence du processus soit assurée.
L'intérêt principal de l'algorithme de Newton est sa convergence quadratique locale. En termes imagés mais peu précis, cela signifie que le nombre de chiffres significatifs corrects des itérés double à chaque itération, asymptotiquement. Comme le nombre de chiffres significatifs représentables par un ordinateur est limité (environ 15 chiffres décimaux sur un ordinateur avec un processeur 32-bits), on peut simplifier grossièrement les propriétés de convergence de l'algorithme de Newton en disant que, soit il converge en moins de 10 itérations, soit il diverge. En effet, si l'itéré initial n'est pas pris suffisamment proche d'un zéro, la suite des itérés générée par l'algorithme a un comportement erratique, dont la convergence éventuelle ne peut être que le fruit du hasard (un des itérés est par chance proche d'un zéro).
L'importance de l'algorithme a incité les numériciens à étendre son application et à proposer des remèdes à ses défauts. Par exemple, l'algorithme permet également de trouver un zéro d'une fonction de plusieurs variables à valeurs vectorielles, voire définie entre espaces vectoriels de dimension infinie ; la méthode conduit d'ailleurs à des résultats d'existence de zéro (utilisés dans certaines preuves du théorème des fonctions implicites, les théorèmes de Kantorovitch). On peut aussi l'utiliser lorsque la fonction est différentiable dans un sens plus faible (fonction différentiable par morceaux, B-différentiable, semi-lisse, obliquement différentiable, etc), ainsi que pour résoudre des systèmes d'inégalité non linéaire, des problèmes d'inclusion, d'équations différentielles ou aux dérivées partielles, d’inéquations variationnelles, de complémentarité, etc. On a également mis au point des techniques de globalisation de l'algorithme, lesquelles ont pour but de forcer la convergence des suites générées à partir d'un itéré initial arbitraire (non nécessairement proche d'un zéro), comme la recherche linéaire et les régions de confiance agissant sur une fonction de mérite (souvent la fonction de moindres-carrés). Dans les versions dites inexactes ou tronquées, on ne résout le système linéaire à chaque itération que de manière approchée. Enfin, la famille des algorithmes de quasi-Newton propose des techniques permettant de se passer du calcul de la dérivée de la fonction. Toutes ces améliorations ne permettent toutefois pas d'assurer que l'algorithme trouvera un zéro existant, quel que soit l'itéré initial.
Appliqué à la dérivée d'une fonction réelle, cet algorithme permet d'obtenir des points critiques (i.e., des zéros de la fonction dérivée). Cette observation est à l'origine de son utilisation en optimisation sans ou avec contraintes.
Sommaire
Éléments d'histoire
La méthode de Newton fut décrite par le mathématicien anglais Isaac Newton dans De analysi per aequationes numero terminorum infinitas, écrit en 1669 et publié en 1711 par William Jones. Elle fut à nouveau décrite dans De metodis fluxionum et serierum infinitarum (De la méthode des fluxions et des suites infinies), écrit en 1671, traduit et publié sous le titre Methods of Fluxions en 1736 par John Colson. Toutefois, Newton n'appliqua la méthode qu'aux seuls polynômes. Comme la notion de dérivée et donc de linéarisation n'était pas définie à cette époque, son approche diffère de celle décrite dans l'introduction : Newton cherchait à affiner une approximation grossière d'un zéro d'un polynôme par un calcul polynomial.
L'exemple que Newton donne[2] est celui du calcul de la racine de
en prenant comme itéré initial le point x1 = 2, qui diffère de moins de 10% de la vraie valeur d'une racine. Il écrit alors x = 2 + d1, où d1 est donc l'accroissement à donner à 2 pour obtenir la racine x. Il remplace x par 2 + d1 dans l'équation, qui devient
et dont il faut trouver la racine pour l'ajouter à 2. Il néglige à cause de sa petitesse (on suppose que ), si bien qu'il reste ou d1 = 0,1, ce qui donne comme nouvelle approximation de la racine x2 = x1 + d1 = 2,1. Il écrit ensuite d1 = 0,1 + d2, où d2 est donc l'accroissement à donner à d1 pour obtenir la racine du polynôme précédent. Il remplace donc d1 par 0,1 + d2 dans le polynôme précédent pour obtenir
On obtiendrait la même équation en remplaçant x par 2,1 + d2 dans le polynôme initial. Négligeant les deux premiers termes, il reste ou à peu près, ce qui donne comme nouvelle approximation de la racine . On peut poursuivre les opérations aussi longtemps qu'il convient.
Cette méthode fut l'objet de publications antérieures. En 1685, John Wallis en publia une première description dans A Treatise of Algebra both Historical and Practical. En 1690, Joseph Raphson en publia une description simplifiée dans Analysis aequationum universalis. Raphson considérait la méthode de Newton toujours comme une méthode purement algébrique et restreignait aussi son usage aux seuls polynômes. Toutefois, il mit en évidence le calcul récursif des approximations successives d'un zéro d'un polynôme au lieu de considérer comme Newton une suite de polynômes.
C'est Thomas Simpson (1710-1761) qui généralisa cette méthode au calcul itératif des solutions d'une équation non linéaire, en utilisant les dérivées (qu'il appelait fluxions, comme Newton)[3]. Simpson appliqua la méthode de Newton à des systèmes de 2 équations non linéaires à 2 inconnues[4], en suivant l'approche utilisée aujourd'hui pour des systèmes ayant plus de 2 équations, et à des problèmes d'optimisation sans contrainte en cherchant un zéro du gradient[5]. Arthur Cayley fut le premier à noter la difficulté de généraliser la méthode de Newton aux variables complexes en 1879[6], par exemple aux polynômes de degré supérieur à 3.
On pourra consulter l'article de Ypma (1995) pour d'autres informations sur l'historique de l'algorithme. Cet auteur attribue l'absence de reconnaissance aux autres contributeurs de l'algorithme au livre influent de Fourier, intitulé Analyse des Équations Déterminées (1831), lequel décrivait la méthode newtonienne sans faire référence à Raphson ou Simpson.
Fonction réelle d'une variable réelle
L'algorithme
On va donc chercher à construire une bonne approximation d'un zéro de la fonction d'une variable réelle f(x) en se basant sur son développement de Taylor au premier ordre. Pour cela, partant d'un point x0 que l'on choisit de préférence proche du zéro à trouver (en faisant des estimations grossières par exemple), on approche la fonction au premier ordre, autrement dit, on la considère à peu près égale à sa tangente en ce point :
Partant de là, pour trouver un zéro de cette fonction d'approximation, il suffit de calculer l'intersection de la droite tangente avec l'axe des abscisses, c'est-à-dire résoudre l'équation affine :
0 = f(x0) + f'(x0)(x − x0).
On obtient alors un point x1 qui en général a de bonnes chances d'être plus proche du vrai zéro de f que le point x0 précédent. Par cette opération, on peut donc espérer améliorer l'approximation par itérations successives (voir illustration) : on approche à nouveau la fonction par sa tangente en x1 pour obtenir un nouveau point x2, etc.
Cette méthode requiert que la fonction possède une tangente en chacun des points de la suite que l'on construit par itération, par exemple il suffit que f soit dérivable.
Formellement, on part d'un point x0 appartenant à l'ensemble de définition de la fonction et on construit par récurrence la suite :
où f' désigne la dérivée de la fonction f. Le point xk + 1 est bien la solution de l'équation affine f(xk) + f'(xk)(x − xk) = 0.
Il se peut que la récurrence doive se terminer, si à l'étape k, xk n'appartient pas au domaine de définition ou si la dérivée f'(xk) est nulle ; dans ces cas, la méthode échoue.
Si le zéro inconnu α est isolé, alors il existe un voisinage de α tel que pour toutes les valeurs de départ x0 dans ce voisinage, la suite (xk) va converger vers α. De plus, si f'(α) est non nul, alors la convergence est quadratique, ce qui signifie intuitivement que le nombre de chiffres corrects est approximativement doublé à chaque étape.
Bien que la méthode soit très efficace, certains aspects pratiques doivent être pris en compte. Avant tout, la méthode de Newton nécessite que la dérivée soit effectivement calculée. Dans les cas où la dérivée est seulement estimée en prenant la pente entre deux points de la fonction, la méthode prend le nom de méthode de la sécante, moins efficace (d'ordre 1,618 qui est le nombre d'or) et inférieure à d'autres algorithmes. Par ailleurs, si la valeur de départ est trop éloignée du vrai zéro, la méthode de Newton peut entrer en boucle infinie sans produire d'approximation améliorée. À cause de cela, toute mise en œuvre de la méthode de Newton doit inclure un code de contrôle du nombre d'itérations.
Exemple
Pour illustrer la méthode, recherchons le nombre positif x vérifiant cos(x) = x3. Reformulons la question pour introduire une fonction devant s'annuler : on recherche le zéro positif (la racine) de f(x) = cos(x) − x3. La dérivation donne f'(x) = − sin(x) − 3x2.
Comme pour tout x et x3 > 1 pour x > 1, nous savons que notre zéro se situe entre 0 et 1. Nous essayons une valeur de départ de x0 = 0,5.
Les 7 premiers chiffres de cette valeur coïncident avec les 7 premiers chiffres du vrai zéro.
Convergence
La vitesse de convergence d'une suite xn obtenue par la méthode de Newton peut être obtenue comme application de la formule de Taylor-Lagrange. Il s'agit d'évaluer une majoration de log | xn − a | .
f est une fonction définie au voisinage de a et deux fois continument différentiable. On suppose que a se trouve être un zéro de f qu'on essaie d'approcher par la méthode de Newton. On fait l'hypothèse que a est un zéro d'ordre 1, autrement dit que f'(a) est non nul. La formule de Taylor-Lagrange s'écrit :
, avec ξ entre x et a. Partant de l'approximation x, la méthode de Newton fournit au bout d'une itération :
. Pour un intervalle compact I contenant x et a et inclus dans le domaine de définition de f, on pose : ainsi que . Alors, pour tout :
. Par récurrence immédiate, il vient :
où . En passant au logarithme :
La convergence de xn vers a est donc quadratique, à condition que |x0-a|<1/K.
Exemple de non convergence
La tangente à la courbe peut couper l'axe des abscisses hors du domaine de définition de la fonction.
Si l'on utilise la fonction , on constate que, pour tout n, Un + 1 = − Un, et il ne peut donc pas y avoir convergence.
Critère d'arrêt
Des critères d'arrêt possibles, déterminés relativement à une grandeur numériquement négligeable, sont :
où representent des erreurs d'approximations caractérisant la qualité de la solution numérique.
Dans tous les cas, il se peut que le critère d'arrêt soit vérifié en des points ne correspondant pas à des solutions de l'équation à résoudre.
Autres exemples
Racine carrée
Un cas particulier de la méthode de Newton est l'algorithme de Babylone, aussi connu sous le nom de méthode de Héron : il s'agit, pour calculer la racine carrée de a, d'appliquer la méthode de Newton à la résolution de
- f(x) = x2 − a.
On obtient alors, en utilisant la formule de la dérivée f'(x) = 2x, une méthode d'approximation de la solution donnée par la formule itérative suivante :
- .
Cette méthode converge pour tout et tout point de départ x0 > 0.
On peut l'étendre au calcul de toute racine nième d'un nombre a avec la formule :
La convergence de la suite (xk) se démontre par récurrence : pour k donné, on peut montrer que si alors . De plus, si , alors . La suite est donc décroissante au moins à partir du second terme. Elle est également bornée, donc elle converge. Reste à montrer que cette limite l est bien égale à : on obtient ce résultat en montrant qu'il est nécessaire que pour que xk + 1 − l tende vers 0 lorsque k tend vers .
Intersection de graphes
On peut déterminer une intersection des graphes de deux fonctions réelles dérivables f et g, c'est-à-dire un point x tel que f(x) = g(x), en appliquant la méthode de Newton à la fonction f − g.
Fonction complexe
La méthode peut aussi être appliquée pour trouver des zéros de fonctions complexes. Dans ce cadre, on connait bien les comportements que peuvent avoir la suite des itérés de Newton . On peut citer :
- convergence vers un zéro,
- limite infinie,
- la suite admet un cycle limite autrement dit, la suite peut être découpée en p sous-suites disjointes de la forme qui chacune convergent vers des points distincts (qui ne sont pas des zéros de f) formant un cycle périodique pour la fonction ,
- la suite se rapproche de l'ensemble des zéros de la fonction sans qu'il n'y ait toutefois de cycle limite, et à chaque étape de l'itération, on se retrouve proche d'un zéro différent des précédents,
- la suite a un comportement chaotique, etc.
Article détaillé : Fractale de Newton.L'ensemble des points à partir desquels peut être obtenue une suite qui converge vers un zéro fixé s'appelle le bassin d'attraction de ce zéro. Pour beaucoup de fonctions complexes, le bassin d'attraction est une fractale.
L'étude de la méthode de Newton pour les polynômes à variables complexes trouve naturellement sa place dans l'étude dynamique des fractions rationnelles et a été une des motivations récentes de l'étude de la dynamique holomorphe.
Généralisations/variantes
Systèmes d'équations à plusieurs variables
On peut aussi vouloir utiliser la méthode de Newton pour résoudre des systèmes de k équations (non nécessairement linéaires), ce qui revient à trouver les zéros de fonctions continûment dérivables F de dans . Dans la formulation donnée ci-dessus, il faut multiplier par l'inverse de la matrice jacobienne au lieu de diviser par f'(xn). Plutôt que de calculer maintenant l'inverse de la matrice, on peut économiser du temps en résolvant le système d'équations linéaires
pour l'inconnue xn + 1 − xn. Encore une fois, cette méthode ne fonctionne que pour une valeur initiale x0 suffisamment proche du vrai zéro. Ainsi, on peut commencer par localiser une région favorable par une méthode grossière ou par un préconditionnement de la matrice, puis appliquer la méthode de Newton pour peaufiner la précision.
Méthode de Newton approchée
Annexes
Notes
- Traité de la résolution des équations numériques de tous les degrés Joseph Louis Lagrange et Louis Poinsot,
- Dans Methodus fluxionum et serierum infinitorum selon J.-L. Chabert et al. (1994). Ypma (1995) renvoie aux pages 219-220 du volume II chez Whiteside (1967-1976).
- Voir Simpson (1740), pages 83-84, selon Ypma (1995).
- Voir Simpson (1740), page 82, selon Ypma (1995).
- (en) T. Simpson (1737), A New Treatise of Fluxions.
- (en) Arthur Cayley (1789). The Newton-Fourier imaginary problem.
Articles connexes
- Algorithme du gradient
- Dynamique holomorphe
- Méthode de la fausse position (ou méthode regula falsi)
- Méthode de la sécante
- Méthode de Müller
- Méthode de quasi-Newton
- Vitesse de convergence des suites
Liens externes
- Cours sur la Méthode de Newton par Stanford.
- J. Ch. Gilbert, Éléments d'Optimisation Différentiable — Théorie et Algorithmes, syllabus de cours à l'ENSTA ParisTech, Paris.
- N. Soualem (2006). Méthode de Newton sur math-linux.com.
Références
- (en) D. P. Bertsekas (1995), Nonlinear Programming. Athena Scientific. ISBN 978-1-886529-14-4.
- (en) J. F. Bonnans, J. Ch. Gilbert, C. Lemaréchal, C. Sagastizábal (2006), Numerical Optimization - Theoretical and Numerical Aspects [détail des éditions].
- J.-L. Chabert, É. Barbin, M. Guillemot, A. Michel-Pajus, J. Borowczyk, A. Djebbar, J.-C. Martzloff (1994). Histoire d’Algorithmes – Du Caillou à la Puce. Regards sur la Science. Belin, Paris.
- J.-P. Dedieu (2006). Points Fixes, Zéros et la Méthodes de Newton. Mathématiques et Applications 54. Springer Verlag, Berlin.
- (en) P. Deuflhard (2004). Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms. Springer Series in Computational Mathematics, Vol. 35. Springer, Berlin, ISBN 3-540-21099-7.
- (en) J. Nocedal, S. J. Wright (2006), Numerical Optimization, Springer. ISBN 978-0-387-30303-1.
- (en) J. M. Ortega, W. C. Rheinboldt (2000). Iterative Solution of Nonlinear Equations in Several Variables. Classics in Applied Mathematics. Society for Industrial and Applied Mathematics. ISBN 0-89871-461-3.
- (en) T. Simpson (1740). Essays on Several Curious and Useful Subjects in Speculative and Mix'd Mathematicks, Illustrated by a Variety of Examples. Londres.
- (en) D. T. Whiteside, éditeur (1967-1976) The Mathematical Papers of Isaac Newton, Volumes I-VII, Cambridge University Press, Cambridge.
- (en) T. J. Ypma (1995). Historical development of the Newton-Raphson method. SIAM Review, 37, 531–551.
Wikimedia Foundation. 2010.