Explore les méthodes d'optimisation primal-dual, en mettant l'accent sur les techniques de gradient lagrangien et leurs applications dans l'optimisation des données.
Fournit un aperçu des techniques d'optimisation, en se concentrant sur la descente de gradient et les propriétés des fonctions convexes dans l'apprentissage automatique.
Explore les algorithmes d'optimisation composite, y compris les opérateurs proximaux et les méthodes de gradient, avec des exemples et des limites théoriques.