Séance de cours

Optimisation des taux de convergence: descente progressive accélérée

Dans cours
DEMO: nulla ea sunt id
Est voluptate elit proident consequat aliqua laborum eu dolor nostrud excepteur laboris in veniam proident. Qui mollit officia exercitation ut ea occaecat enim pariatur eiusmod minim velit cupidatat mollit esse. Id anim sit ea velit.
Connectez-vous pour voir cette section
Description

Cette séance de cours s'inscrit dans l'optimalité des taux de convergence dans l'optimisation convexe, en mettant l'accent sur la méthode de descente accélérée du gradient. Il couvre le taux de convergence de descente par gradient, les limites inférieures théoriques de l'information et l'algorithme de descente par gradient accéléré. La séance de cours explore la conception de méthodes de premier ordre avec des taux de convergence correspondant à des limites inférieures théoriques, comme le schéma accéléré de Nesterov. Il traite également de la convergence globale de la descente accélérée du gradient et de l'algorithme de descente variable du gradient métrique. De plus, il examine les méthodes adaptatives de premier ordre, la méthode de Newton et l'algorithme extra-gradient. La séance de cours se termine par des informations sur les performances des algorithmes d'optimisation et la méthode de gradient pour l'optimisation non-convexe.

Enseignant
veniam ad fugiat mollit
Enim est sint eiusmod magna aliqua sunt dolor incididunt minim qui in adipisicing. Consectetur enim occaecat laborum proident laborum in deserunt ipsum dolore nostrud voluptate id minim. Dolore elit id esse commodo do fugiat. Aliquip amet culpa magna exercitation non laboris occaecat qui elit aute cupidatat. Pariatur elit consequat sint amet. Ut velit velit aliqua culpa aliquip esse commodo nostrud proident laborum exercitation ipsum. Enim voluptate Lorem velit consequat et officia ad mollit adipisicing Lorem tempor laboris.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (110)
Optimisation du double primaire: méthode extra-gradient
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.
Gradient Descent Methods: Théorie et calcul
Explore les méthodes de descente de gradient pour les problèmes convexes lisses et non convexes, couvrant les stratégies itératives, les taux de convergence et les défis d'optimisation.
Méthodes d'optimisation: convergence et compromis
Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
Minimisation du convex composite
Couvre les méthodes de solution pour réduire au minimum les convexes composites et explore des exemples comme les moindres carrés régularisés et la récupération de phase.
Optimisation du taux de convergence : accélération de la descente en gradient
Explore l'optimalité du taux de convergence dans les techniques de descente de gradient et d'accélération pour les problèmes convexes et non convexes.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.