Explore l'optimisation des modèles d'intégration de mots, y compris la minimisation de la fonction de perte et la descente de gradient, et introduit des techniques comme Fasttext et Byte Pair Encoding.
Explore les intégrations de mots, les modèles de sujet, Word2vec, les réseaux bayésiens et les méthodes d'inférence telles que l'échantillonnage Gibbs.
Présente les bases de la récupération d'informations, couvrant la récupération basée sur le texte, les caractéristiques du document, les fonctions de similarité et la différence entre la récupération booléenne et la récupération classée.
Introduit les bases du NLP moderne, couvrant l'intégration de mots, les modèles neuraux, et les tâches comme l'étiquetage de séquence et la génération de texte.
Couvre les fondamentaux et les algorithmes du classement basé sur les liens, y compris l'indexation de texte d'ancrage, PageRank, HITS, et les implémentations pratiques.
Explore les modèles de préformation comme BERT, T5 et GPT, en discutant de leurs objectifs de formation et de leurs applications dans le traitement des langues naturelles.
Explore la sémantique lexicale, le sens des mots, les relations sémantiques et WordNet, en mettant en évidence les applications dans l'ingénierie du langage et la récupération d'informations.