Séance de cours

Word Embeddings: Modélisation du contexte et de la similarité des mots

Description

Cette séance de cours introduit le concept d'incorporation de mots, qui vise à modéliser la probabilité qu'un mot et son contexte se produisent ensemble dans un espace de faible dimension. En mappant des mots et des contextes dans cet espace, la distance vectorielle peut être interprétée comme une mesure de leur probabilité de cooccurrence. Linstructeur explique le processus dapprentissage du modèle à partir de données, y compris la formulation dun problème doptimisation et la définition dune fonction de perte à minimiser. La séance de cours couvre des sujets tels que l'obtention d'échantillons négatifs, la descente de gradient stochastique et le calcul de dérivés. En outre, des approches alternatives telles que CBOW et GLOVE sont discutées, ainsi que les propriétés de l'incorporation de mots et leurs applications pratiques dans la recherche de documents, la construction de thésaurus et la classification de documents.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.