Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Couvre les concepts essentiels de l'algèbre linéaire pour l'optimisation convexe, y compris les normes vectorielles, la décomposition des valeurs propres et les propriétés matricielles.