Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Introduit des opérateurs proximaux et des méthodes de gradient conditionnel pour les problèmes convexes composites de minimisation dans l'optimisation des données.
Introduit l'optimisation convexe, couvrant les ensembles convexes, les concepts de solution et les méthodes numériques efficaces en optimisation mathématique.
Couvre le surajustement, la régularisation et la validation croisée dans l'apprentissage des machines, explorant le réglage des courbes polynômes, l'expansion des fonctionnalités, les fonctions du noyau et la sélection des modèles.
Explore les méthodes de descente de gradient pour les problèmes convexes lisses et non convexes, couvrant les stratégies itératives, les taux de convergence et les défis d'optimisation.