Séance de cours

Traduction automatique : Mécanisme d'attention

Description

Cette séance de cours couvre le concept de mécanisme d'attention dans la traduction automatique, abordant le problème du goulot d'étranglement dans les modèles séquence à séquence. L'instructeur explique comment l'attention fournit une solution en permettant au décodeur de se concentrer sur des parties spécifiques de la séquence source, améliorant considérablement les performances NMT. L'attention aide également avec le problème de gradient de fuite et fournit l'interprétabilité en montrant sur quoi le décodeur se concentre. Différentes variantes d'attention sont discutées, y compris l'attention point-produit, multiplicative et additive, chacune avec ses avantages. La séance de cours se termine par un résumé de l'attention portée à la NMT, soulignant son efficacité dans l'apprentissage des alignements souples entre les jetons d'entrée et de sortie.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.