Cette séance de cours fournit un aperçu approfondi des modèles de séquence à séquence, en se concentrant sur leur architecture, leurs applications et leurs méthodologies de formation. Cela commence par un récapitulatif des réseaux neuronaux récurrents (RNN) et de leurs limites, en particulier le problème du gradient de fuite qui affecte les dépendances à longue portée. L'instructeur présente des modèles codeur-décodeur, expliquant comment ils peuvent gérer efficacement des tâches telles que la traduction automatique et la génération de code en séparant les processus d'encodage et de décodage. La séance de cours souligne l'importance des données appariées pour la formation de ces modèles et discute des défis associés à l'obtention de ces données. Des mécanismes d'attention sont introduits comme solution au goulot d'étranglement temporel en séquence à des modèles de séquence, permettant au décodeur de se concentrer sur les parties pertinentes de la séquence d'entrée à chaque étape. La séance de cours se termine par une discussion sur linterprétabilité de lattention et ses implications pour la performance du modèle. Dans l'ensemble, cette session donne aux étudiants les connaissances fondamentales essentielles pour comprendre des sujets avancés dans le traitement du langage naturel et l'apprentissage automatique.