Séance de cours

Méthodes de descente et recherche de ligne: Première condition Wolfe

Description

Cette séance de cours se concentre sur l'identification d'un pas le long d'une direction de descente pour générer une nouvelle itération, caractérisant un bon pas avec l'état First Wolfe. La condition assure que la diminution de la fonction objectif est proportionnelle à la longueur du pas, avec le facteur de proportionnalité gamma. La séance de cours illustre la condition avec des exemples, soulignant l'importance de choisir une valeur appropriée pour gamma en fonction de la pente locale de la fonction. Le concept de beta_1, strictement compris entre zéro et un, est introduit pour définir l'exigence de diminution de la fonction, en fonction de la dérivée directionnelle. La séance de cours conclut en démontrant comment différentes valeurs de beta_1 ont un impact sur l'acceptabilité des étapes, en soulignant l'importance de sélectionner une valeur proche de zéro à des fins pratiques.

Dans MOOCs (6)
Optimization: principles and algorithms - Linear optimization
Introduction to linear optimization, duality and the simplex algorithm.
Optimization: principles and algorithms - Linear optimization
Introduction to linear optimization, duality and the simplex algorithm.
Optimization: principles and algorithms - Network and discrete optimization
Introduction to network optimization and discrete optimization
Optimization: principles and algorithms - Network and discrete optimization
Introduction to network optimization and discrete optimization
Optimization: principles and algorithms - Unconstrained nonlinear optimization
Introduction to unconstrained nonlinear optimization, Newton’s algorithms and descent methods.
Afficher plus
Enseignant
officia consequat non exercitation
Esse duis reprehenderit cupidatat non occaecat. Consequat ut cupidatat deserunt deserunt ipsum minim. Amet velit do aliqua labore mollit. Sit ea ad ut laboris enim ea.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (32)
Méthodes de descente et recherche par ligne: Second Wolfe conditionMOOC: Optimization: principles and algorithms - Linear optimization
Explore la deuxième condition de Wolfe, en guidant les tailles de pas en fonction de l'augmentation de la dérivée directionnelle.
Dérivés directionnels : Définitions et exemples
Couvre la définition de dérivé directionnel et fournit des exemples illustratifs.
Fonction objective, Différenciation, Deuxième ordreMOOC: Optimization: principles and algorithms - Linear optimization
Explore le rôle des dérivées première et seconde dans la courbure et la convexité des fonctions.
Dérivés et continuité
Explore les propriétés des fonctions avec des dérivés partiels continus dans des sous-ensembles ouverts de Rn.
Différentiabilité et planes tangentes
Explore la différentiabilité dans les fonctions et les plans tangents aux surfaces.
Afficher plus