Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours de l'instructeur aborde le thème de la compression des modèles de deuxième ordre pour les réseaux neuronaux profonds massifs, en se concentrant sur des modèles avec des milliards de paramètres comme le GPT-3 d'OpenAI. La séance de cours examine les défis de l'exécution de ces modèles massifs, le concept de compression de modèles, et des exemples pratiques de modèles de compression pour fonctionner sur des GPU uniques. Diverses techniques d'élagage et leur impact sur la précision des modèles sont explorés, ainsi que l'introduction de l'approche de élagage M-FAC. La séance de cours se termine par des idées sur la compression des modèles GPT jusqu'à 10 fois avec une perte minimale et des gains de performance potentiels.