Couvre les modèles de séquence à séquence, leur architecture, leurs applications et le rôle des mécanismes d'attention dans l'amélioration des performances.
Explore le développement d'intégrations contextuelles dans le NLP, en mettant l'accent sur les progrès réalisés par ELMo et BERT et son impact sur les tâches du NLP.