Couvre la régression quantile, en se concentrant sur l'optimisation linéaire pour prédire les résultats et discuter de la sensibilité aux valeurs aberrantes, de la formulation des problèmes et de la mise en œuvre pratique.
Explore l'optimisation convexe dans la réduction de la dimensionnalité non linéaire, en présentant des applications pratiques dans les tâches de traitement du signal et de régression.
Introduit des opérateurs proximaux et des méthodes de gradient conditionnel pour les problèmes convexes composites de minimisation dans l'optimisation des données.
Couvre la régression linéaire, la régression pondérée, la régression pondérée localement, la régression vectorielle de soutien, la manipulation du bruit et la cartographie oculaire à l'aide de SVR.
Explore la dualité lagrangienne dans l'optimisation convexe, en discutant de la dualité forte, des solutions duales et des applications pratiques dans les programmes de cônes de second ordre.