Critères de Wolfe

Critères de Wolfe

En optimisation non contrainte, les critères de Wolfe sont un ensemble d'inégalités permettant d'optimiser la méthode de recherche linéaire ; plus précisément, cela permet de sélectionner un pas adéquat pour la recherche linéaire.

Soit f:\mathbb R^n\to\mathbb R une fonction de classe Ck, et soit \mathbf{p}_k une direction de descente. Un pas αk est considéré comme satisfaisant les critères de Wolfe si les 2 inégalités suivantes sont vérifiées:

i) f(\mathbf{x}_k+\alpha_k\mathbf{p}_k)\leq f(\mathbf{x}_k)+c_1\alpha_k\mathbf{p}_k^{\mathrm T}\nabla f(\mathbf{x}_k),
ii) \mathbf{p}_k^{\mathrm T}\nabla f(\mathbf{x}_k+\alpha_k\mathbf{p}_k)\geq c_2\mathbf{p}_k^{\mathrm T}\nabla f(\mathbf{x}_k),

Avec 0 < c1 < c2 < 1. La première inégalité i) est connue sous le nom de condition d'Armijo ( ou condition de Goldstein ou condition de Goldstein-Armijo) et la seconde ii) comme la condition de courbure. i) impose que αk permette de décroître suffisamment f, et ii) assure que le taux d'accroissement de la fonction \phi(\alpha)=f(\mathbf{x}_k+\alpha\mathbf{p}_k) en αk est plus grand que c2 celui en 0.

Les critères de Wolfe donnent une façon économique de point de vue algorithmique de calculer le pas permettant de diminuer ϕ dépendant de \alpha\in\mathbb R. Cependant, les conditions peuvent donner une valeur pour le pas qui n'est pas proche d'un minimum de ϕ. Si on modifie la condition de courbure de la manière suivante:

iia) \big|\mathbf{p}_k^{\mathrm T}\nabla f(\mathbf{x}_k+\alpha_k\mathbf{p}_k)\big|\leq c_2\big|\mathbf{p}_k^{\mathrm T}\nabla f(\mathbf{x}_k)\big|

alors i) et iia) prises ensemble sont appelées conditions fortes de Wolfe, puisque αk est forcément proche d'un point critique de ϕ.

Référence

(en) J. Nocedal et S. J. Wright, Numerical optimization, Springer Verlag, NY, 1999

Articles connexes


Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Critères de Wolfe de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • Criteres de Wolfe — Critères de Wolfe En optimisation non contrainte, les critères de Wolfe sont un ensemble d inégalités permettant d optimiser la méthode de recherche linéaire ; plus précisément, cela permet de sélectionner un pas adéquat pour la recherche… …   Wikipédia en Français

  • Critères De Wolfe — En optimisation non contrainte, les critères de Wolfe sont un ensemble d inégalités permettant d optimiser la méthode de recherche linéaire ; plus précisément, cela permet de sélectionner un pas adéquat pour la recherche linéaire. Soit une… …   Wikipédia en Français

  • Critères de wolfe — En optimisation non contrainte, les critères de Wolfe sont un ensemble d inégalités permettant d optimiser la méthode de recherche linéaire ; plus précisément, cela permet de sélectionner un pas adéquat pour la recherche linéaire. Soit une… …   Wikipédia en Français

  • Liste des articles de mathematiques — Projet:Mathématiques/Liste des articles de mathématiques Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou probabilités et statistiques via l un des trois bandeaux suivants  …   Wikipédia en Français

  • Projet:Mathématiques/Liste des articles de mathématiques — Cette page n est plus mise à jour depuis l arrêt de DumZiBoT. Pour demander sa remise en service, faire une requête sur WP:RBOT Cette page recense les articles relatifs aux mathématiques, qui sont liés aux portails de mathématiques, géométrie ou… …   Wikipédia en Français

  • Algorithme de descente — Descente de gradient Traduction à relire Gradient descent → …   Wikipédia en Français

  • Descente De Gradient — Traduction à relire Gradient descent → …   Wikipédia en Français

  • Descente de gradient — Traduction à relire Gradient descent → …   Wikipédia en Français

  • Méthode de Quasi-Newton — La méthode de Quasi Newton est une méthode numérique utilisée pour résoudre des systèmes d équations non linéaires. Typiquement, le problème que résout une méthode de Quasi Newton est f(x) = 0 avec dont on ne connaît pas forcément l expression… …   Wikipédia en Français

  • Recherche lineaire — Recherche linéaire En optimisation non contrainte, la recherche linéaire est une des deux approches itératives classiques permettant de trouver les extrema d une fonction . L autre méthode est celle des régions de confiance. Algorithme i) Mettre… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”