Séance de cours

Primal-dual Optimization III: Méthodes de gradient lagrangien

Dans cours
DEMO: aliqua Lorem aliqua consectetur
In amet aliqua ex esse. Dolore occaecat minim id nisi ad quis ipsum aliqua est. Eiusmod cupidatat reprehenderit non et esse officia commodo labore quis. Sunt officia eiusmod aliqua ea duis magna esse duis Lorem esse laborum culpa quis.
Connectez-vous pour voir cette section
Description

Cette séance de cours couvre les méthodes d'optimisation primal-dual, en se concentrant sur les techniques de gradient lagrangien. Il se penche sur les mathématiques derrière l'optimisation des données, y compris les formulations convexes, les solutions e-précise, et diverses méthodes primal-dual. L'instructeur explique la pénalité quadratique et les formulations lagrangiennes, les doubles problèmes augmentés et la méthode lagrangienne augmentée linéarisée. Des exemples tels que la déconvolution d'image aveugle, la poursuite de base et les réseaux neuronaux sont utilisés pour illustrer les concepts. La séance de cours se termine par des discussions sur les garanties de convergence, la CGM lagrangienne augmentée et des applications telles que le clustering k-means et la programmation semi-définie évolutive.

Enseignant
Lorem nisi commodo
Veniam officia tempor voluptate id ex excepteur sint id culpa. In elit sunt commodo fugiat excepteur adipisicing laboris ad commodo dolore culpa. Elit Lorem eiusmod dolor magna eu minim fugiat veniam nostrud sint sunt nisi.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (45)
Optimisation des taux de convergence : Descente de gradient accélérée/stochastique
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Méthodes d'optimisation: convergence et compromis
Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
L’optimisation primal-dual : les fondamentaux
Explore l'optimisation primal-dual, les problèmes minimax et les méthodes de montée en pente pour les algorithmes d'optimisation.
Optimisation du double primaire: méthode extra-gradient
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.
Programmes d'optimisation : Fonctions de coûts linéaires par pièce
Couvre la formulation de programmes d'optimisation pour minimiser les fonctions de coûts linéaires à la pièce.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.