Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Couvre les bases de l'optimisation, y compris les métriques, les normes, la convexité, les gradients et la régression logistique, en mettant l'accent sur les forts taux de convexité et de convergence.
Explore les isométries dans les espaces euclidiens, y compris les traductions, les rotations et les symétries linéaires, en mettant l'accent sur les matrices.
Introduit l'optimisation convexe à travers des ensembles et des fonctions, couvrant les intersections, exemples, opérations, gradient, Hessian, et applications du monde réel.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Introduit la conjugaison Fenchel, explorant ses propriétés, exemples et applications dans les problèmes d'optimisation non lisses et les formulations minimax.