Fournit un aperçu des techniques d'optimisation, en se concentrant sur la descente de gradient et les propriétés des fonctions convexes dans l'apprentissage automatique.
Introduit les bases de la programmation linéaire, y compris les problèmes d'optimisation, les fonctions de coût, l'algorithme simplex, la géométrie des programmes linéaires, les points extrêmes et la dégénérescence.
Introduit l'optimisation convexe à travers des ensembles et des fonctions, couvrant les intersections, exemples, opérations, gradient, Hessian, et applications du monde réel.
Explore la dualité lagrangienne dans l'optimisation convexe, transformant les problèmes en formulations min-max et discutant de l'importance des solutions doubles.