Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours explore le concept d'exemples contradictoires dans l'apprentissage automatique, en se concentrant sur la création d'attaques pour induire en erreur les classificateurs et les défenses contre eux. Il se transforme en défenses certifiées et prouvables, y compris le lissage gaussien pour les attaques L2. L'instructeur discute du paysage des défenses prouvables et introduit le modèle de menace perceptuelle neuronale pour approximativement la distance perceptuelle réelle. Diverses attaques, telles que L2 et les attaques perceptives, sont analysées, ainsi que le développement d'une défense avec une robustesse généralisable. La séance de cours se termine par des résultats sur les ensembles de données CIFAR-10 et ImageNet-100, montrant l'efficacité des différentes stratégies de défense.