Explore les problèmes variationnels, en mettant l'accent sur les conditions de convexité et de coercivité dans les fonctions avec des contraintes latérales intégrales.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.