Séance de cours

Soutenez des machines de vecteur : Maximiser la marge

Description

Cette séance de cours se penche sur Support Vector Machines (SVM), une méthode de classification qui maximise la marge entre les classes. L'instructeur explique le concept de séparation des hyperplans, l'importance de maximiser la marge pour une classification robuste et le rôle des vecteurs de support dans la définition de l'hyperplan. La séance de cours couvre le contexte historique de la SVM, sa signification avant la montée des réseaux de neurones et l'introduction de la dualité convexe. L'instructeur discute également de la transition de la SVM dure à la SVM douce pour les données séparables non linéairement, expliquant l'assouplissement des contraintes et le compromis entre la taille de la marge et la classification erronée. La double formulation de SVM est explorée, mettant en évidence la rareté des vecteurs de support et l'importance de la matrice du noyau dans la simplification de l'optimisation. La séance de cours se termine par un aperçu de l'importance des vecteurs de soutien dans la définition du prédicteur optimal et du rôle de la SVM dans l'apprentissage des limites de décision.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.