Explore les machines vectorielles de support, maximisant la marge pour une classification robuste et la transition vers la SVM logicielle pour les données séparables non linéairement.
Discute de la descente de gradient stochastique et de son application dans l'optimisation non convexe, en se concentrant sur les taux de convergence et les défis de l'apprentissage automatique.
Explore la dualité conjuguée dans l'optimisation convexe, couvrant les hyperplans faibles et soutenants, les sous-gradients, l'écart de dualité et les conditions de dualité fortes.
Explore l'apprentissage de la fonction du noyau en optimisation convexe, en se concentrant sur la prédiction des sorties à l'aide d'un classificateur linéaire et en sélectionnant les fonctions optimales du noyau par validation croisée.