Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours se penche sur Support Vector Machines (SVM), une méthode de classification qui maximise la marge entre les classes. L'instructeur explique le concept de séparation des hyperplans, l'importance de maximiser la marge pour une classification robuste et le rôle des vecteurs de support dans la définition de l'hyperplan. La séance de cours couvre le contexte historique de la SVM, sa signification avant la montée des réseaux de neurones et l'introduction de la dualité convexe. L'instructeur discute également de la transition de la SVM dure à la SVM douce pour les données séparables non linéairement, expliquant l'assouplissement des contraintes et le compromis entre la taille de la marge et la classification erronée. La double formulation de SVM est explorée, mettant en évidence la rareté des vecteurs de support et l'importance de la matrice du noyau dans la simplification de l'optimisation. La séance de cours se termine par un aperçu de l'importance des vecteurs de soutien dans la définition du prédicteur optimal et du rôle de la SVM dans l'apprentissage des limites de décision.