Explore les conditions d'optimalité nécessaires et suffisantes pour les minima locaux sur les collecteurs, en mettant l'accent sur les points critiques de deuxième ordre.
Explore les méthodes de descente des gradients pour optimiser les fonctions sur les collecteurs, en mettant l'accent sur les petites garanties de gradient et la convergence globale.
Couvre les rétractations de second ordre dans l'optimisation sur les collecteurs, en se concentrant sur les courbes lisses et leur relation avec le gradient et Hessian d'une fonction.
Introduit Manopt, une boîte à outils pour l'optimisation sur les collecteurs, en se concentrant sur la résolution des problèmes d'optimisation sur les collecteurs lisses à l'aide de la version Matlab.
Introduit des rétractions et des champs vectoriels sur les collecteurs, fournissant des exemples et discutant des propriétés de douceur et d'extension.
Explore l'importance de différencier les champs vectoriels et la méthodologie appropriée pour y parvenir, en soulignant l'importance d'aller au-delà du premier ordre.
Introduit Manopt, une boîte à outils pour l'optimisation sur les collecteurs lisses avec une structure Riemannienne, couvrant les fonctions de coûts, différents types de collecteurs, et principes d'optimisation.