Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Explore le transport optimal et les flux de gradient dans Rd, en mettant l'accent sur la convergence et le rôle des théorèmes de Lipschitz et Picard-Lindelf.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Explore les fonctions convexes, les transformations d'affines, le maximum pointu, la minimisation, le Lemma de Schur et l'entropie relative dans l'optimisation mathématique.
Couvre les bases de l'optimisation, y compris les métriques, les normes, la convexité, les gradients et la régression logistique, en mettant l'accent sur les forts taux de convexité et de convergence.