Explore les compromis entre les données et le temps dans les problèmes de calcul, en mettant l'accent sur les rendements décroissants et les compromis continus.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Introduit l'optimisation convexe, couvrant les ensembles convexes, les concepts de solution et les méthodes numériques efficaces en optimisation mathématique.
Explore les problèmes variationnels, en mettant l'accent sur les conditions de convexité et de coercivité dans les fonctions avec des contraintes latérales intégrales.