Explore les méthodes d'optimisation dans l'apprentissage automatique, en mettant l'accent sur les gradients, les coûts et les efforts informatiques pour une formation efficace des modèles.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Explore les problèmes d'optimisation en algèbre et en équations trinomiales, en se concentrant sur la maximisation de la surface avec des périmètres fixes.
Couvre les méthodes d'optimisation avancées en utilisant des multiplicateurs Lagrange pour trouver l'extrémité des fonctions soumises à des contraintes.