Séance de cours

Deep Learning pour le NLP

Description

Cette séance de cours couvre les principes fondamentaux de l'apprentissage profond pour le traitement du langage naturel (NLP), y compris l'incorporation de mots neuraux, les réseaux neuraux récurrents pour la modélisation des séquences et la modélisation névralgique attenante avec les transformateurs. L'instructeur discute des défis des fenêtres de contexte fixes dans les premiers modèles de langage neuronal, des limites des modèles récurrents dans l'apprentissage des dépendances à longue distance, et des progrès apportés par les mécanismes d'auto-attention dans les transformateurs. La présentation comprend une explication détaillée de l'auto-attention, l'attention multi-têtes, et l'architecture d'un modèle de transformateur complet avec des blocs encodeur et décodeur.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.