Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Introduit des rétractions et des champs vectoriels sur les collecteurs, fournissant des exemples et discutant des propriétés de douceur et d'extension.
Couvre la méthode de Newton sur les variétés riemanniennes, en se concentrant sur les conditions d'optimalité du second ordre et la convergence quadratique.
Explore les expansions et les rétractations de Taylor sur les collecteurs Riemanniens, en mettant l'accent sur les approximations de second ordre et les dérivés covariants.