Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours traite de la malédiction de la dimensionnalité et de la façon dont les architectures modernes la surmontent en étant à la fois invariante locale et translationnelle, soulignant l’importance de la stabilité pour faciliter les transformations dans les modèles d’apprentissage profond. Il explore les avantages de l'apprentissage des fonctionnalités dans l'adaptation des échelles de mise en commun et l'importance de la stabilité des déformations dans les performances du réseau. L'instructeur présente des preuves empiriques montrant que l'apprentissage profond converge vers des algorithmes bien définis, battant la malédiction de la dimensionnalité en considérant les objets comme des parties locales avec des positions relatives fluctuantes.