Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Introduit des opérateurs proximaux et des méthodes de gradient conditionnel pour les problèmes convexes composites de minimisation dans l'optimisation des données.
Explore les modèles de signaux concis, la détection compressive, la parcimonie, les normes atomiques et la minimisation non lisse en utilisant la descente de sous-gradient.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Explore l'apprentissage machine contradictoire, couvrant la génération d'exemples contradictoires, les défis de robustesse et des techniques telles que la méthode Fast Gradient Sign.