Le formalisme des grammaires lexicales-fonctionnelles (en anglais Lexical-Functional Grammars, d'où l'acronyme que nous utiliserons désormais, LFG) est un formalisme grammatical utilisé pour formaliser les langues naturelles. C'est un formalisme à décorations dont le
formalisme squelette est celui des grammaires non contextuelles, et dont les décorations sont
appelées structures fonctionnelles. Historiquement, la définition du
modèle par Kaplan et Bresnan au début des années 1980 procède d'une critique des grammaires génératives transformationnelles,
en vogue à l'époque, mais dont les trois principaux points faibles étaient leur complexité
excessive, leur difficulté à rendre compte des langues à ordre plus libre, et leur inadéquation aux
expériences psycholinguistiques censées au contraire plaider en leur faveur.
L'idée sous-jacente à LFG est qu'il n'y a pas nécessairement superposition des fonctions
grammaticales avec les positions syntaxiques, pour au moins deux raisons:
les fonctions grammaticales induisent un graphe de dépendances syntaxiques qui n'est pas nécessairement un arbre, alors que les positions syntaxiques induisent une structure d'arbre,
une même position syntaxique peut être remplie par la réalisation de diverses fonctions syntaxiques.
Les fonctions grammaticales sont de ce fait des fondamentaux de la théorie LFG, au même titre
que les constituants. Les constituants sont donc gérés par le squelette syntaxique
non contextuel, et les fonctions
grammaticales sont gérées par des équations fonctionnelles qui reposent sur
l'unification. Une analyse LFG est donc d'une part un arbre de constituants, appelé structure
de constituants ou c-structure, et d'autre part une structure fonctionnelle, ou
f-structure, qui est une structure de traits dont nous allons maintenant montrer le contenu
et la construction.
Soit une règle du squelette, par exemple . À chaque non-terminal, de partie
droite comme de partie gauche, est associée une f-structure (si est l'axiome, sa
f-structure est la f-structure complète; les autres non-terminaux n'ont qu'une f-structure
partielle).
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Generative grammar, or generativism ˈdʒɛnərətɪvɪzəm, is a linguistic theory that regards linguistics as the study of a hypothesised innate grammatical structure. It is a biological or biologistic modification of earlier structuralist theories of linguistics, deriving ultimately from glossematics. Generative grammar considers grammar as a system of rules that generates exactly those combinations of words that form grammatical sentences in a given language.
HPSG (abréviation anglaise de head-driven phrase structure grammar, traduction française : grammaire syntagmatique guidée par les têtes) est, en linguistique, une théorie syntaxique. Son nom se réfère à la notion de tête, élément principal d'un syntagme. Comme la LFG, autre théorie syntaxique, il s'agit d'une grammaire d'unification : elle associe un attribut (ex. nombre) à une valeur (ex. pluriel), ce qui la rend adaptée au traitement automatique de la langue.
Generalized phrase structure grammar (GPSG) is a framework for describing the syntax and semantics of natural languages. It is a type of constraint-based phrase structure grammar. Constraint based grammars are based around defining certain syntactic processes as ungrammatical for a given language and assuming everything not thus dismissed is grammatical within that language. Phrase structure grammars base their framework on constituency relationships, seeing the words in a sentence as ranked, with some words dominating the others.
Explore la cartographie des atomes dans les réactions chimiques et la transition vers la grammaire réactionnelle à l'aide de l'architecture du transformateur.
One of the key challenges involved in building statistical automatic speech recognition (ASR) systems is modeling the relationship between subword units or “lexical units” and acoustic feature observations. To model this relationship two types of resources ...
One of the key challenge involved in building a statistical automatic speech recognition (ASR) system is modeling the relationship between lexical units (that are based on subword units in the pronunciation lexicon) and acoustic feature observations. To mo ...
For a long time, natural language processing (NLP) has relied on generative models with task specific and manually engineered features. Recently, there has been a resurgence of interest for neural networks in the machine learning community, obtaining state ...