Cette séance de cours couvre les modèles de langage neuronal à contexte fixe, les réseaux neuronaux récurrents (RNN) et leurs applications dans le traitement du langage naturel. L'instructeur discute des avantages et des inconvénients des RNN, des défis des dépendances à long terme et de la question des gradients de disparition. La séance de cours explore également l'étiquetage séquentiel, la rétropropagation dans le temps et les solutions au problème du gradient de disparition. En outre, il se penche sur les aspects pratiques des gradients de calcul et sur l'utilisation de la différenciation automatique dans les progiciels d'apprentissage profond. La séance de cours se termine par un aperçu des sujets à venir sur les architectures RNN plus puissantes et les modèles de codeur-décodeur.