Couvre les méthodes de descente de gradient pour les problèmes convexes et non convexes, y compris la minimisation convexe lisse sans contrainte, lestimation de la vraisemblance maximale, et des exemples comme la régression de crête et la classification dimage.
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.
Explore les modèles linéaires, la régression, la prédiction multi-sorties, la classification, la non-linéarité et l'optimisation basée sur le gradient.
Introduit la conjugaison Fenchel, explorant ses propriétés, exemples et applications dans les problèmes d'optimisation non lisses et les formulations minimax.