Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les bases des modèles séquentiels à séquentiels, en se concentrant sur les lacunes liées aux dépendances à longue distance et au goulot d'étranglement temporel. Il introduit des améliorations par le biais de mécanismes d'attention, expliquant comment ils répondent aux limites des modèles récurrents traditionnels. L'instructeur discute du concept d'encodeurs bidirectionnels et de la façon dont ils améliorent la représentation des séquences d'entrée. Le processus de formation des modèles d'encodeur-décodeur est expliqué, en soulignant le besoin de données appariées dans les langues pour des tâches comme la traduction automatique. La séance de cours se penche également sur la mise en œuvre de modèles d'encodeur-décodeur attentifs, soulignant l'importance de l'attention dans l'atténuation du goulot d'étranglement temporel et l'amélioration de l'interprétabilité. Diverses fonctions d'attention et leur rôle dans l'amélioration du rendement des modèles sont explorés, ainsi que l'aspect d'interprétation des mécanismes d'attention.