Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
Introduit Manopt, une boîte à outils pour l'optimisation sur les collecteurs, en se concentrant sur la résolution des problèmes d'optimisation sur les collecteurs lisses à l'aide de la version Matlab.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Explore les isométries dans les espaces euclidiens, y compris les traductions, les rotations et les symétries linéaires, en mettant l'accent sur les matrices.
Couvre les méthodes de recherche de ligne de gradient et les techniques d'optimisation en mettant l'accent sur les conditions Wolfe et la définition positive.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Fournit un aperçu des techniques d'optimisation, en se concentrant sur la descente de gradient et les propriétés des fonctions convexes dans l'apprentissage automatique.
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.