Présente les bases de la récupération d'informations, couvrant la représentation de documents, l'expansion des requêtes et TF-IDF pour le classement des documents.
Introduit des intégrations de mots, expliquant comment ils capturent les significations des mots en fonction du contexte et de leurs applications dans les tâches de traitement du langage naturel.
Introduit des concepts d'apprentissage profond pour les NLP, couvrant l'intégration de mots, les RNN et les Transformateurs, mettant l'accent sur l'auto-attention et l'attention multi-têtes.
Explore l'indexation sémantique latente, la construction de vocabulaire, la création de matrices de documents, la transformation de requêtes et la récupération de documents en utilisant la similarité cosinus.
En savoir plus sur l'apprentissage profond pour le traitement des langues naturelles, l'exploration de l'intégration des mots neuraux, des réseaux neuraux récurrents et de la modélisation des neurones avec les transformateurs.
Explore les intégrations de mots, les modèles de sujet, Word2vec, les réseaux bayésiens et les méthodes d'inférence telles que l'échantillonnage Gibbs.
Explore l'indexation sémantique latente dans la récupération d'information, en discutant des algorithmes, des défis dans la récupération spatiale vectorielle et des méthodes de récupération axées sur le concept.
Plongez dans le traitement de grandes collections de textes numériques, en explorant les régularités cachées, la réutilisation du texte et l'analyse TF-IDF.