Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Sur Convex Optimization couvre l'organisation des cours, les problèmes d'optimisation mathématique, les concepts de solution et les méthodes d'optimisation.