Cette séance de cours traite de l'évolution des mécanismes d'attention menant au développement des transformateurs, une architecture pivot dans le traitement du langage naturel. Il commence par aborder les limitations des réseaux neuronaux récurrents (RNN), en particulier leur incapacité à paralléliser les calculs en raison de dépendances sur les états précédents. L'instructeur présente le modèle de transformateur comme une solution, mettant en évidence son architecture, qui se compose de composants codeurs et décodeurs constitués de plusieurs blocs de transformateurs. Chaque bloc utilise une attention multi-têtes, permettant un traitement parallèle des séquences d'entrée. Le concept d'auto-attention est expliqué, démontrant comment il permet au modèle de calculer les distributions d'attention sur ses propres états cachés. La séance de cours couvre également l'importance de l'encodage positionnel pour maintenir l'ordre des mots, un défi qui découle de la nature non séquentielle des transformateurs. Enfin, l'instructeur compare les performances des transformateurs avec les RNN traditionnels, en mettant l'accent sur leur efficience et leur efficacité dans des tâches telles que la traduction automatique, tout en abordant les inconvénients potentiels et la recherche en cours dans le domaine.