Discute de l'interprétation des courbes de convergence dans l'optimisation, de l'identification des bogues en fonction des taux de convergence et de la compréhension des algorithmes d'optimisation.
Introduit la conjugaison Fenchel, explorant ses propriétés, exemples et applications dans les problèmes d'optimisation non lisses et les formulations minimax.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.