Explore l'optimalité des taux de convergence dans l'optimisation convexe, en mettant l'accent sur la descente accélérée des gradients et les méthodes d'adaptation.
Explore les modèles de signaux concis, la détection compressive, la parcimonie, les normes atomiques et la minimisation non lisse en utilisant la descente de sous-gradient.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Explore la factorisation matricielle dans les systèmes de recommandation, couvrant l'optimisation, les mesures d'évaluation et les défis liés à la mise à l'échelle.