Discute de la méthode de gradient pour l'optimisation, en se concentrant sur son application dans l'apprentissage automatique et les conditions de convergence.
Couvre la méthode de Newton sur les variétés riemanniennes, en se concentrant sur les conditions d'optimalité du second ordre et la convergence quadratique.