Séance de cours

Compression du modèle: Techniques pour des modèles NLP efficaces

Description

Cette séance de cours sur la compression des modèles dans les NLP modernes couvre diverses techniques telles que la taille, la quantification, la factorisation du poids, le partage du poids, la distillation des connaissances et les transformateurs sub-quadratiques. Il traite des défis des grands modèles de langage, des avantages des modèles de compression et de l'impact sur l'empreinte mémoire et le temps d'inférence. La séance de cours explore également le concept de distillation des connaissances, en tirant parti des étiquettes douces pour les modèles étudiants, et l'importance des mécanismes d'attention dans les modèles de transformateurs.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.