Explore les problèmes variationnels, en mettant l'accent sur les conditions de convexité et de coercivité dans les fonctions avec des contraintes latérales intégrales.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Introduit les bases de la programmation linéaire, y compris les problèmes d'optimisation, les fonctions de coût, l'algorithme simplex, la géométrie des programmes linéaires, les points extrêmes et la dégénérescence.