The term phrase structure grammar was originally introduced by Noam Chomsky as the term for grammar studied previously by Emil Post and Axel Thue (Post canonical systems). Some authors, however, reserve the term for more restricted grammars in the Chomsky hierarchy: context-sensitive grammars or context-free grammars. In a broader sense, phrase structure grammars are also known as constituency grammars. The defining trait of phrase structure grammars is thus their adherence to the constituency relation, as opposed to the dependency relation of dependency grammars. In 1956, Chomsky wrote, "A phrase-structure grammar is defined by a finite vocabulary (alphabet) Vp, and a finite set Σ of initial strings in Vp, and a finite set F of rules of the form: X → Y, where X and Y are strings in Vp." In linguistics, phrase structure grammars are all those grammars that are based on the constituency relation, as opposed to the dependency relation associated with dependency grammars; hence, phrase structure grammars are also known as constituency grammars. Any of several related theories for the parsing of natural language qualify as constituency grammars, and most of them have been developed from Chomsky's work, including Government and binding theory Generalized phrase structure grammar Head-driven phrase structure grammar Lexical functional grammar The minimalist program Nanosyntax Further grammar frameworks and formalisms also qualify as constituency-based, although they may not think of themselves as having spawned from Chomsky's work, e.g. Arc pair grammar, and Categorial grammar. The fundamental trait that these frameworks all share is that they view sentence structure in terms of the constituency relation. The constituency relation derives from the subject-predicate division of Latin and Greek grammars that is based on term logic and reaches back to Aristotle in antiquity. Basic clause structure is understood in terms of a binary division of the clause into subject (noun phrase NP) and predicate (verb phrase VP).

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Publications associées (20)
Concepts associés (24)
Grammaire de dépendance
On désigne par grammaire de dépendance une approche de la syntaxe fondée par Lucien Tesnière. Elle se distingue par la place centrale donnée à une structure hiérarchique, appelée Stemma par Lucien Tesnière, mais plus connue aujourd'hui sous le terme d’arbre de dépendance. L'arbre de dépendance est un arbre, au sens mathématique du terme, représentant les liens syntaxiques entre les mots d'une phrase. Les grammaires de dépendance ne réfèrent donc pas à un cadre théorique restreint, mais la notion de dépendance peut être explicite ou implicite dans la formalisation des règles syntaxiques.
Prédicat (linguistique)
En grammaire, le prédicat est une partie de la phrase simple. Sa notion connaît plusieurs interprétations, toutes prenant en compte son rapport avec une autre partie de la phrase simple, le sujet. Selon l’une des interprétations, le prédicat est un syntagme verbal, qu’il soit constitué d’un verbe seul, ou de celui-ci et d’un ou plusieurs éléments qui lui sont subordonnés. Par exemple, dans la phrase Pierre écrit une lettre à sa mère, le prédicat serait toute la partie de la phrase qui suit le sujet Pierre.
Head-driven phrase structure grammar
HPSG (abréviation anglaise de head-driven phrase structure grammar, traduction française : grammaire syntagmatique guidée par les têtes) est, en linguistique, une théorie syntaxique. Son nom se réfère à la notion de tête, élément principal d'un syntagme. Comme la LFG, autre théorie syntaxique, il s'agit d'une grammaire d'unification : elle associe un attribut (ex. nombre) à une valeur (ex. pluriel), ce qui la rend adaptée au traitement automatique de la langue.
Afficher plus