Séance de cours

Transformer: Pre-Training

Description

Cette séance de cours couvre lévolution des modèles récurrents aux modèles de PNL basés sur lattention, en se concentrant sur le modèle Transformer. Il explique les composants clés du Transformer, tels que l'auto-attention, l'attention à plusieurs têtes et l'architecture Transformer Encoder-Decoder. La séance de cours explore les défis rencontrés par les modèles récurrents, les avantages du modèle Transformer et ses applications dans la traduction automatique et la génération de documents. Il traite de l'importance des représentations de position, de la normalisation des couches et des connexions résiduelles dans l'architecture Transformer. La séance de cours met également en évidence les résultats significatifs obtenus par les transformateurs dans diverses tâches de PNL, en soulignant leur efficacité dans la préformation et leur adoption généralisée dans le domaine.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.