Intégrations de mots neuronaux: Représentations d'apprentissage pour le langage naturel
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Introduit les bases du NLP moderne, couvrant l'intégration de mots, les modèles neuraux, et les tâches comme l'étiquetage de séquence et la génération de texte.
Introduit des intégrations de mots, expliquant comment ils capturent les significations des mots en fonction du contexte et de leurs applications dans les tâches de traitement du langage naturel.
Explore le modèle Vector Space, le sac de mots, tf-idf, cosine similarité, Okapi BM25, et la précision et le rappel dans la récupération d'information.
Explore l'optimisation des modèles d'intégration de mots, y compris la minimisation de la fonction de perte et la descente de gradient, et introduit des techniques comme Fasttext et Byte Pair Encoding.
Explore les mots, les jetons, les n-grammes et les modèles linguistiques, en mettant l'accent sur les approches probabilistes pour l'identification des langues et la correction des erreurs d'orthographe.
Couvre les fondamentaux et les algorithmes du classement basé sur les liens, y compris l'indexation de texte d'ancrage, PageRank, HITS, et les implémentations pratiques.