Séance de cours

L’optimisation primal-dual : les fondamentaux

Séances de cours associées (122)
Opérateurs proximaux et optimisation contrainte
Introduit des opérateurs proximaux, des méthodes de gradient et une optimisation contrainte, explorant leur convergence et leurs applications pratiques.
Optimisation des taux de convergence : Descente de gradient accélérée/stochastique
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Optimisation Dualité: Théorie et Algorithmes
Explore la dualité d'optimisation, la dualité faible et forte, les algorithmes d'optimisation pratiques et les défis dans les problèmes non convexes.
Adversarial Machine Learning: Fondamentaux et techniques
Explore l'apprentissage machine contradictoire, couvrant la génération d'exemples contradictoires, les défis de robustesse et des techniques telles que la méthode Fast Gradient Sign.
Convexité et Jacobiens
Explore la convexité, les Jacobiens, les subdifférenciations et les taux de convergence dans l'optimisation et l'analyse des fonctions.
Composantes principales : Propriétés et applications
Explore les principales composantes, la covariance, la corrélation, le choix et les applications dans l'analyse des données.
Courbes de double descente : surparamétrisation
Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Mathématiques des données: Optimisation des bases
Couvre les bases de l'optimisation, y compris les métriques, les normes, la convexité, les gradients et la régression logistique, en mettant l'accent sur les forts taux de convexité et de convergence.
Méthodes d'optimisation dans l'apprentissage automatique
Explore les méthodes d'optimisation dans l'apprentissage automatique, en mettant l'accent sur les gradients, les coûts et les efforts informatiques pour une formation efficace des modèles.
Primal-dual Optimization III: Méthodes de gradient lagrangien
Explore les méthodes d'optimisation primal-dual, en mettant l'accent sur les techniques de gradient lagrangien et leurs applications dans l'optimisation des données.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.