Explore la dualité conjuguée dans l'optimisation convexe, couvrant les hyperplans faibles et soutenants, les sous-gradients, l'écart de dualité et les conditions de dualité fortes.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Discute de la descente de gradient stochastique et de son application dans l'optimisation non convexe, en se concentrant sur les taux de convergence et les défis de l'apprentissage automatique.
Explore l'optimisation convexe, en soulignant l'importance de minimiser les fonctions dans un ensemble convexe et l'importance des processus continus dans l'étude des taux de convergence.
Explore les bases de l'optimisation telles que les normes, la convexité et la différentiabilité, ainsi que les applications pratiques et les taux de convergence.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.