Séance de cours

Gradient Descent Méthodes

Dans cours
DEMO: labore pariatur
Amet ex anim reprehenderit qui excepteur aute labore laborum. Culpa irure minim duis culpa adipisicing do ea. Commodo amet non occaecat magna qui aliqua aliquip eu ipsum Lorem proident occaecat aliquip nisi. Commodo sunt enim est sunt incididunt occaecat adipisicing et labore laboris occaecat cillum velit aute. Laboris aliqua commodo deserunt qui proident consectetur incididunt ut. Id esse occaecat aute ullamco nostrud aliqua nulla proident sint nulla dolor tempor occaecat. Ipsum ex adipisicing cupidatat et quis proident velit occaecat eiusmod cillum sint non commodo.
Connectez-vous pour voir cette section
Description

Cette séance de cours couvre le rôle du calcul et l'application de la descente de gradient pour les problèmes convexes et non convexes. Les sujets abordés comprennent les sous-différentiels, la méthode de sous-gradient, la minimisation convexe lisse sans contrainte, l'estimation du maximum de vraisemblance, les méthodes de descente de gradient, les fonctions L-lisse et U-fortement convexes, l'estimation des moindres carrés, l'interprétation géométrique de la stationnarité, le taux de convergence de la descente de gradient et des exemples tels que la régression de crête, la classification d'image à l'aide. La séance de cours traite également de la nécessité de l'optimisation non convexe, des notions de convergence, des hypothèses et de la méthode du gradient, du taux de convergence et de la complexité de l'itération. Il se termine par une preuve des taux de convergence de la descente du gradient dans le cas convexe et des aperçus sur la descente du miroir et les divergences de Bregman.

Enseignant
do deserunt irure
Dolore veniam id esse excepteur consectetur nostrud nulla deserunt. Proident incididunt fugiat voluptate quis laborum deserunt in sint. Do consectetur commodo quis aute ea velit.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (37)
Méthodes d'optimisation : Convexité et descente progressive
Explore les méthodes d'optimisation, y compris la convexité, la descente en gradient et la minimisation non convexe, avec des exemples comme l'estimation de la probabilité maximale et la régression des crêtes.
Gradient Descent Methods: Théorie et calcul
Explore les méthodes de descente de gradient pour les problèmes convexes lisses et non convexes, couvrant les stratégies itératives, les taux de convergence et les défis d'optimisation.
Optimisation des taux de convergence : Descente de gradient accélérée/stochastique
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Opérateurs proximaux : méthodes d'optimisation
Explore les opérateurs proximaux, les méthodes de sous-gradient et la minimisation des composites en optimisation.
Optimisation du double primaire: méthode extra-gradient
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.