Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les Réseaux Adversaires Généraux (RAG), qui modélisent la distribution des probabilités par rapport aux variables aléatoires. Les GAN se composent d'un générateur et d'un discriminateur jouant à un jeu à deux joueurs. Le générateur vise à produire des échantillons réalistes, tandis que le discriminateur essaie de distinguer entre les échantillons réels et faux. La séance de cours explique le processus d'optimisation des GAN comme un jeu minmax et introduit les concepts d'équilibre Nash et d'équilibre différentiel Nash. Il examine également les défis de l'utilisation de la divergence Jensen-Shannon dans les GAN et présente la distance Wasserstein comme une alternative. En outre, il explore les GANs conditionnels (CGANs) pour la production d'échantillons conditionnés sur des informations supplémentaires comme les étiquettes de classe. La séance de cours se termine par une discussion sur les modèles de diffusion, une alternative aux GAN, qui ajoutent progressivement du bruit aux données d'entrée pour générer des échantillons.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace