Introduit les principes fondamentaux de l'optimisation convexe, en soulignant l'importance des fonctions convexes dans la simplification du processus de minimisation.
Explore les résultats élémentaires en optimisation convexe, y compris les coques affines, convexes et coniques, les cônes appropriés et les fonctions convexes.
Discute des techniques d'optimisation avancées, en se concentrant sur des méthodes de descente de gradient plus rapides et projetées dans l'apprentissage automatique.
Explore l'optimalité des taux de convergence dans l'optimisation convexe, en mettant l'accent sur la descente accélérée des gradients et les méthodes d'adaptation.
Introduit l'optimisation convexe à travers des ensembles et des fonctions, couvrant les intersections, exemples, opérations, gradient, Hessian, et applications du monde réel.
Explore la dualité conjuguée dans l'optimisation convexe, couvrant les hyperplans faibles et soutenants, les sous-gradients, l'écart de dualité et les conditions de dualité fortes.
Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Explore les bases de l'optimisation telles que les normes, la convexité et la différentiabilité, ainsi que les applications pratiques et les taux de convergence.