Couvre la régression quantile, en se concentrant sur l'optimisation linéaire pour prédire les résultats et discuter de la sensibilité aux valeurs aberrantes, de la formulation des problèmes et de la mise en œuvre pratique.
Couvre les bases de l'optimisation, y compris les perspectives historiques, les formulations mathématiques et les applications pratiques dans les problèmes de prise de décision.
Explore la dualité lagrangienne dans l'optimisation convexe, en discutant de la dualité forte, des solutions duales et des applications pratiques dans les programmes de cônes de second ordre.
Explore l'optimisation primaire-duelle, la conjugaison des fonctions, la dualité forte, et les méthodes de pénalité quadratique en mathématiques de données.