Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Explore l'optimisation convexe, en soulignant l'importance de minimiser les fonctions dans un ensemble convexe et l'importance des processus continus dans l'étude des taux de convergence.
Fournit un aperçu des techniques d'optimisation, en se concentrant sur la descente de gradient et les propriétés des fonctions convexes dans l'apprentissage automatique.