Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Explore les compromis d'optimisation, la réduction de la variance, la dimension statistique et l'analyse de convergence dans les algorithmes d'optimisation.