Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre le concept de Support Vector Machines, en mettant l'accent sur l'invention de Vapnik et Cortes. Il explique l'algorithme de formation des classificateurs de marge optimaux, en étendant les résultats aux données de formation non séparables. La séance de cours traite de la grande capacité de généralisation des réseaux support-vecteur et compare leurs performances. Il s'inscrit dans la règle du SVM dur pour trouver l'hyperplan de séparation max-margin et fournit des preuves pour des formulations équivalentes. La séance de cours introduit également la règle du SVM-soft comme une relaxation pour les données non linéairement séparables, détaillant l'introduction de variables de relâche. Il explore les pertes pour la classification, y compris les pertes quadratiques, logistiques et de charnières, et leurs différences de comportement. La séance de cours se termine par des techniques d'optimisation pour trouver l'hyperplan optimal en utilisant la dualité convexe et la minimisation des risques.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace