Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Couvre les méthodes d'optimisation avancées en utilisant des multiplicateurs Lagrange pour trouver l'extrémité des fonctions soumises à des contraintes.
Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.