Explore la maximisation des marges pour une meilleure classification à l'aide de machines vectorielles de support et l'importance de choisir le bon paramètre.
Explore Support Vector Machines, couvrant la marge ferme, la marge souple, la perte de charnière, la comparaison des risques et la perte de charnière quadratique.
Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.
Explore les machines vectorielles de support, maximisant la marge pour une classification robuste et la transition vers la SVM logicielle pour les données séparables non linéairement.
Explore l'apprentissage de la fonction du noyau en optimisation convexe, en se concentrant sur la prédiction des sorties à l'aide d'un classificateur linéaire et en sélectionnant les fonctions optimales du noyau par validation croisée.