Plongement lexicalLe plongement lexical (« word embedding » en anglais) est une méthode d'apprentissage d'une représentation de mots utilisée notamment en traitement automatique des langues. Le terme devrait plutôt être rendu par vectorisation de mots pour correspondre plus proprement à cette méthode. Cette technique permet de représenter chaque mot d'un dictionnaire par un vecteur de nombres réels. Cette nouvelle représentation a ceci de particulier que les mots apparaissant dans des contextes similaires possèdent des vecteurs correspondants qui sont relativement proches.
Désambiguïsation lexicaleLa désambiguïsation lexicale ou désambigüisation lexicale est la détermination du sens d'un mot dans une phrase lorsque ce mot peut avoir plusieurs sens possibles. Dans la linguistique informatique, la désambiguïsation lexicale est un problème non résolu dans le traitement des langues naturelles et de l'ontologie informatique. La résolution de ce problème permettrait des avancées importantes dans d'autres champs de la linguistique informatique comme l'analyse du discours, l'amélioration de la pertinence des résultats des moteurs de recherche, la résolution des anaphores, la cohérence, l'inférence, etc.
Word2vecEn intelligence artificielle et en apprentissage machine, Word2vec est un groupe de modèles utilisé pour le plongement lexical (word embedding). Ces modèles ont été développés par une équipe de recherche chez Google sous la direction de . Ce sont des réseaux de neurones artificiels à deux couches entraînés pour reconstruire le contexte linguistique des mots. La méthode est implémentée dans la bibliothèque Python Gensim. Deux architectures ont été initialement proposées pour apprendre les Word2vec, le modèle de sacs de mots continus (CBOW: continuous bag of words) et le modèle skip-gram.
Sentence embeddingIn natural language processing, a sentence embedding refers to a numeric representation of a sentence in the form of a vector of real numbers which encodes meaningful semantic information. State of the art embeddings are based on the learned hidden layer representation of dedicated sentence transformer models. BERT pioneered an approach involving the use of a dedicated [CLS] token preprended to the beginning of each sentence inputted into the model; the final hidden state vector of this token encodes information about the sentence and can be fine-tuned for use in sentence classification tasks.
Variété abélienneEn mathématiques, et en particulier, en géométrie algébrique et géométrie complexe, une variété abélienne A est une variété algébrique projective qui est un groupe algébrique. La condition de est l'équivalent de la compacité pour les variétés différentielles ou analytiques, et donne une certaine rigidité à la structure. C'est un objet central en géométrie arithmétique. Une variété abélienne sur un corps k est un groupe algébrique A sur k, dont la variété algébrique sous-jacente est projective, connexe et géométriquement réduite.
Variété algébriqueUne variété algébrique est, de manière informelle, l'ensemble des racines communes d'un nombre fini de polynômes en plusieurs indéterminées. C'est l'objet d'étude de la géométrie algébrique. Les schémas sont des généralisations des variétés algébriques. Il y a deux points de vue (essentiellement équivalents) sur les variétés algébriques : elles peuvent être définies comme des schémas de type fini sur un corps (langage de Grothendieck), ou bien comme la restriction d'un tel schéma au sous-ensemble des points fermés.
Variété projectiveEn géométrie algébrique, les variétés projectives forment une classe importante de variétés. Elles vérifient des propriétés de compacité et des propriétés de finitude. C'est l'objet central de la géométrie algébrique globale. Sur un corps algébriquement clos, les points d'une variété projective sont les points d'un ensemble algébrique projectif. On fixe un corps (commutatif) k. Algèbre homogène. Soit B le quotient de par un idéal homogène ( idéal engendré par des polynômes homogènes).
Word-sense inductionIn computational linguistics, word-sense induction (WSI) or discrimination is an open problem of natural language processing, which concerns the automatic identification of the senses of a word (i.e. meanings). Given that the output of word-sense induction is a set of senses for the target word (sense inventory), this task is strictly related to that of word-sense disambiguation (WSD), which relies on a predefined sense inventory and aims to solve the ambiguity of words in context.
Traitement automatique du langage naturelLe traitement automatique du langage naturel (TALN), en anglais natural language processing ou NLP, est un domaine multidisciplinaire impliquant la linguistique, l'informatique et l'intelligence artificielle, qui vise à créer des outils de traitement du langage naturel pour diverses applications. Il ne doit pas être confondu avec la linguistique informatique, qui vise à comprendre les langues au moyen d'outils informatiques.
Chow varietyIn mathematics, particularly in the field of algebraic geometry, a Chow variety is an algebraic variety whose points correspond to effective algebraic cycles of fixed dimension and degree on a given projective space. More precisely, the Chow variety is the fine moduli variety parametrizing all effective algebraic cycles of dimension and degree in . The Chow variety may be constructed via a Chow embedding into a sufficiently large projective space.