Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours traite des avantages prouvables d'une surparamétrie dans la compression des modèles, en mettant l'accent sur l'efficacité des réseaux neuronaux profonds et le processus de taille des modèles. Il couvre la motivation derrière l'efficacité des filets profonds, les principes de la taille des modèles, les enquêtes empiriques sur CIFAR10, la relation entre surparamètre et double descente, et la configuration théorique pour la compression des modèles. La principale contribution réside dans la caractérisation de la distribution du modèle, permettant l'étude de la compression du modèle et démontrant les avantages d'une surparamétrisation. La séance de cours explore également des exemples de modèles linéaires et de taille aléatoire, soulignant l'importance du recyclage pour améliorer le rendement.