Séance de cours

Apprentissage par machine de l'adversaire

Description

Cette séance de cours se penche sur le concept d'apprentissage automatique contradictoire, explorant comment les réseaux neuronaux peuvent être facilement trompés par de petites perturbations dans les données d'entrée, conduisant à des prédictions incorrectes. L'instructeur explique l'importance de la robustesse dans les tâches de classification, en soulignant la distinction entre le comportement des réseaux humains et neuronaux. La séance de cours couvre les fondements théoriques des exemples contradictoires, le risque associé à différentes normes et le compromis entre la précision standard et robuste. Des méthodes pratiques telles que les attaques par gradient projeté (PGD) et la formation contradictoire sont discutées, montrant comment les modèles de formation avec des exemples contradictoires peuvent améliorer la robustesse. L'instructeur démontre également un problème de classification simple pour illustrer comment des fonctionnalités robustes peuvent améliorer la précision de la prédiction malgré des perturbations contradictoires.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.