Explore les machines vectorielles de support, maximisant la marge pour une classification robuste et la transition vers la SVM logicielle pour les données séparables non linéairement.
Explore les méthodes d'optimisation primal-dual, en mettant l'accent sur les techniques de gradient lagrangien et leurs applications dans l'optimisation des données.
Sur Convex Optimization couvre l'organisation des cours, les problèmes d'optimisation mathématique, les concepts de solution et les méthodes d'optimisation.
Explore la convexification des problèmes non convexes grâce à des astuces sur le noyau, à l'interprétation de la sensibilité et à la réduction de la dimensionnalité non linéaire.
Explore la dualité lagrangienne dans l'optimisation convexe, transformant les problèmes en formulations min-max et discutant de l'importance des solutions doubles.
Explore la convexité de l'extension de Lovsz et la maximisation des fonctions sous-modulaires, en se concentrant sur l'extension des fonctions aux ensembles convexes et en prouvant leur convexité.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.