Séance de cours

Méthodes de descente et recherche par ligne: Second Wolfe condition

Description

Cette séance de cours plonge dans la deuxième condition de Wolfe, qui vise à éviter les étapes trop courtes le long d'une direction de descente. En exigeant une augmentation suffisante de la dérivée directionnelle, cette condition offre une flexibilité à l'algorithme, permettant différentes tailles de pas en fonction du paramètre beta_2. À travers des illustrations et des exemples, l'instructeur explique comment la deuxième condition Wolfe caractérise la progression de l'algorithme et influence l'acceptation ou le rejet des étapes, impactant finalement le processus d'optimisation.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.