Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Explore l'optimisation primaire-duelle, la conjugaison des fonctions, la dualité forte, et les méthodes de pénalité quadratique en mathématiques de données.
Couvre les bases de l'optimisation, y compris les perspectives historiques, les formulations mathématiques et les applications pratiques dans les problèmes de prise de décision.
Couvre la régression quantile, en se concentrant sur l'optimisation linéaire pour prédire les résultats et discuter de la sensibilité aux valeurs aberrantes, de la formulation des problèmes et de la mise en œuvre pratique.