Explore les méthodes de descente des gradients pour optimiser les fonctions sur les collecteurs, en mettant l'accent sur les petites garanties de gradient et la convergence globale.
Explore les connexions sur les collecteurs, en mettant l'accent sur la définition axiomatique et les propriétés des dérivés dans les champs vectoriels de différenciation.
Introduit des champs vectoriels différenciés le long de courbes sur des collecteurs avec des connexions et l'opérateur unique satisfaisant des propriétés spécifiques.
Explore la convexité géodésique et son extension à l'optimisation sur les collecteurs, soulignant la préservation du fait clé que les minima locaux impliquent des minima globaux.