Explore la dualité conjuguée dans l'optimisation convexe, couvrant les hyperplans faibles et soutenants, les sous-gradients, l'écart de dualité et les conditions de dualité fortes.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Explore le transport optimal et les flux de gradient dans Rd, en mettant l'accent sur la convergence et le rôle des théorèmes de Lipschitz et Picard-Lindelf.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.