Explore les bases de l'optimisation telles que les normes, la convexité et la différentiabilité, ainsi que les applications pratiques et les taux de convergence.
Explore les fonctions convexes, les transformations d'affines, le maximum pointu, la minimisation, le Lemma de Schur et l'entropie relative dans l'optimisation mathématique.
Explore l'optimisation convexe, en soulignant l'importance de minimiser les fonctions dans un ensemble convexe et l'importance des processus continus dans l'étude des taux de convergence.
Explore le transport optimal et les flux de gradient dans Rd, en mettant l'accent sur la convergence et le rôle des théorèmes de Lipschitz et Picard-Lindelf.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.