Séance de cours

Prouvable et généralisable Robustness in Deep Learning

Description

Cette séance de cours explore le concept d'exemples contradictoires dans l'apprentissage automatique, en se concentrant sur la création d'attaques pour induire en erreur les classificateurs et les défenses contre eux. Il se transforme en défenses certifiées et prouvables, y compris le lissage gaussien pour les attaques L2. L'instructeur discute du paysage des défenses prouvables et introduit le modèle de menace perceptuelle neuronale pour approximativement la distance perceptuelle réelle. Diverses attaques, telles que L2 et les attaques perceptives, sont analysées, ainsi que le développement d'une défense avec une robustesse généralisable. La séance de cours se termine par des résultats sur les ensembles de données CIFAR-10 et ImageNet-100, montrant l'efficacité des différentes stratégies de défense.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.