Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
Discute des techniques d'optimisation avancées, en se concentrant sur des méthodes de descente de gradient plus rapides et projetées dans l'apprentissage automatique.
Explore les algorithmes d'optimisation primal-dual pour les problèmes de minimax convexe-concave, en discutant des propriétés de convergence et des applications.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Explore l'optimalité des taux de convergence dans l'optimisation convexe, en mettant l'accent sur la descente accélérée des gradients et les méthodes d'adaptation.