Cette séance de cours traite de la préformation des modèles de séquence à séquence, en se concentrant sur BART et T5. Il commence par passer en revue les concepts d'apprentissage par transfert et de réglage fin, en soulignant l'importance de la préformation dans le traitement du langage naturel (PNL). L'instructeur explique comment des modèles comme ELMO, BERT et GPT ont transformé la PNL en permettant l'apprentissage des intégrations contextuelles. La séance de cours met en évidence les différences entre les étapes de pré-formation et de réglage fin, détaillant les exigences en matière de données et la simplicité des objectifs de formation pendant la pré-formation. L'instructeur présente BART, un modèle qui combine des éléments de BERT et de GPT, et explique son architecture, y compris l'encodeur bidirectionnel et le décodeur autorégressif. Diverses stratégies de corruption pour les données dentrée sont discutées, montrant comment elles améliorent la performance du modèle. La séance de cours se termine par T5, un modèle qui étend le cadre séquence à séquence à diverses tâches de PNL, démontrant son efficacité grâce à une formation approfondie sur de grands ensembles de données. Dans l'ensemble, la séance de cours fournit un aperçu complet des approches modernes de la préformation en PNL.