Résumé
On désigne par grammaire de dépendance une approche de la syntaxe fondée par Lucien Tesnière. Elle se distingue par la place centrale donnée à une structure hiérarchique, appelée Stemma par Lucien Tesnière, mais plus connue aujourd'hui sous le terme d’arbre de dépendance. L'arbre de dépendance est un arbre, au sens mathématique du terme, représentant les liens syntaxiques entre les mots d'une phrase. Les grammaires de dépendance ne réfèrent donc pas à un cadre théorique restreint, mais la notion de dépendance peut être explicite ou implicite dans la formalisation des règles syntaxiques. Les sommets d'un arbre de dépendance sont les mots ou morphèmes d'une phrase, les arêtes sont habituellement étiquetées par des fonctions syntaxiques. Parmi les fonctions syntaxiques émanant d'un verbe, par exemple, on trouve ses actants (son sujet, son objet direct et d'autres éléments de sa valence) et les circonstants (aussi appelées circonstanciels) du verbe. Habituellement, on retrace l'histoire des théories dépendentielles aux travaux de Lucien Tesnière et Alexandr Matvejevič Peškovskij dans les années 1930. Le travail de Tesnière fait explicitement référence à des idées de Humboldt et est fortement influencé par les traditions de la description fonctionnelle des langues slaves. Ces idées ont été reprises dans les travaux de Hays (1960), Gaifman (1965), Robinson (1970), la Théorie Sens-Texte autour de Mel'čuk à Moscou et Montréal, la nouvelle école de Prague autour de Sgall, Hajičová et Panevova (Sgall et al. 1986), les grammaires de dépendance allemandes (par exemple Engel 1992), et, dans le monde anglophone par les travaux autour d'Anderson (1971), la « Word Grammar » de Hudson (1984) et la « Link Grammar » (de Sleator et Temperley 1991). On peut opposer la notion de dépendance aux descriptions linguistiques fondées sur les arbres syntagmatiques. Néanmoins, un arbre de constituants de type X-barre décrit de manière implicite les relations entre le mot tête et ses dépendants, et, inversement, la projection d'un sous-arbre de dépendance peut être vue comme des constituants.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (1)
EE-608: Deep Learning For Natural Language Processing
The Deep Learning for NLP course provides an overview of neural network based methods applied to text. The focus is on models particularly suited to the properties of human language, such as categori
Publications associées (35)

Modeling Structured Data in Attention-based Models

Alireza Mohammadshahi

Natural language processing has experienced significant improvements with the development of Transformer-based models, which employ self-attention mechanism and pre-training strategies. However, these models still present several obstacles. A notable issue ...
EPFL2023

Fast Adversarial Training With Adaptive Step Size

Sabine Süsstrunk, Mathieu Salzmann, Chen Liu, Zhuoyi Huang, Yong Zhang, Jue Wang

While adversarial training and its variants have shown to be the most effective algorithms to defend against adversarial attacks, their extremely slow training process makes it hard to scale to large datasets like ImageNet. The key idea of recent works to ...
Piscataway2023
Afficher plus
Concepts associés (32)
Phrase structure grammar
The term phrase structure grammar was originally introduced by Noam Chomsky as the term for grammar studied previously by Emil Post and Axel Thue (Post canonical systems). Some authors, however, reserve the term for more restricted grammars in the Chomsky hierarchy: context-sensitive grammars or context-free grammars. In a broader sense, phrase structure grammars are also known as constituency grammars. The defining trait of phrase structure grammars is thus their adherence to the constituency relation, as opposed to the dependency relation of dependency grammars.
Head-driven phrase structure grammar
HPSG (abréviation anglaise de head-driven phrase structure grammar, traduction française : grammaire syntagmatique guidée par les têtes) est, en linguistique, une théorie syntaxique. Son nom se réfère à la notion de tête, élément principal d'un syntagme. Comme la LFG, autre théorie syntaxique, il s'agit d'une grammaire d'unification : elle associe un attribut (ex. nombre) à une valeur (ex. pluriel), ce qui la rend adaptée au traitement automatique de la langue.
Circonstant
En grammaire, un circonstant désigne un constituant syntaxique d'une proposition indépendant de la valence du verbe qui en constitue le noyau. Le terme s'oppose à celui d'actant et a été comme lui introduit par Lucien Tesnière. La grammaire générative utilise plutôt le terme d'adjoint, qu'elle oppose d'une manière semblable à celui dargument. L'argument est un constituant qui doit être combiné à un prédicat pour satisfaire aux exigences sémantiques de celui-ci. L'adjoint est alors décrit comme étant simplement un non-argument.
Afficher plus