Séance de cours

Support Vecteurs Machines: Théorie et Applications

Description

Cette séance de cours couvre la théorie et les applications des machines vectorielles de soutien (SVM) dans l'apprentissage des machines. Il explique l'invention par Vapnik d'un algorithme de formation pour les classificateurs de marge optimaux, le concept de réseaux support-vecteur, les classificateurs linéaires, les règles hard-SVM pour les hyperplans de séparation max-margin, les SVM souples pour les données non linéairement séparables, la classification par minimisation des risques, la relaxation convexe du risque de classification, les pertes pour la classification et l'application de la dualité convexe aux SVM. La séance de cours se penche également sur les techniques d'optimisation pour trouver l'hyperplan optimal, la dualité convexe dans les SVM, et l'interprétation de la double formulation dans les SVM.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.