Résumé automatique de texteUn résumé est une forme de compression textuelle avec perte d'information. Un résumé automatique de texte est une version condensée d'un document textuel, obtenu au moyen de techniques informatiques. La forme la plus connue et la plus visible des condensés de textes est le résumé, représentation abrégée et exacte du contenu d'un document. Cependant, produire un résumé pertinent et de qualité demande au résumeur (un humain ou un système automatique) l'effort de sélectionner, d'évaluer, d'organiser et d'assembler des segments d'information selon leur pertinence.
Entrelacs brunnienEn mathématiques, plus précisément en théorie des nœuds, une sous-branche de la topologie, un entrelacs brunnien est un entrelacs non qui devient trivial si l'un quelconque de ses composants est enlevé. En d'autres termes, couper n'importe laquelle des boucles libère toutes les boucles de l'entrelacs. L'adjectif brunnien vient de Hermann Brunn, qui a rédigé l'article Über Verkettung en 1892 dans lequel il prend pour exemples de tels nœuds. L'entrelacs brunnien le plus simple et le plus connu est le nœud borroméen, un entrelacs de trois éléments non noués entre eux.
Génération automatique de textesLa génération automatique de texte (GAT) est une sous discipline de la linguistique computationnelle qui vise à exprimer sous une forme textuelle, syntaxiquement et sémantiquement correcte, une représentation formelle d'un contenu. Outre ses nombreuses applications existantes ou potentielles - par exemple pour produire automatiquement des bulletins météorologiques, ou des rapports automatisés - elle offre par ailleurs un cadre d'investigation des théories linguistiques, et particulièrement de ses mécanismes de production.
Théorie des nœudsthumb|right|Représentation d’un nœud torique de type (3, 8). La théorie des nœuds est une branche de la topologie qui consiste en l'étude mathématique de courbes présentant des liaisons avec elles-mêmes, un « bout de ficelle » idéalisé en lacets. Elle est donc très proche de la théorie des tresses qui comporte plusieurs chemins ou « bouts de ficelle ». left|thumb|Nœuds triviaux La théorie des nœuds a commencé vers 1860 et avec des travaux de Carl Friedrich Gauss liés à l'électromagnétisme.
Suite récurrente linéaireEn mathématiques, on appelle suite récurrente linéaire d’ordre p toute suite à valeurs dans un corps commutatif K (par exemple R ou C ; on ne se placera que dans ce cas dans cet article) définie pour tout par une relation de récurrence linéaire de la forme où , , ... sont p scalaires fixés de K ( non nul). Une telle suite est entièrement déterminée par la donnée de ses p premiers termes et par la relation de récurrence. Les suites récurrentes linéaires d’ordre 1 sont les suites géométriques.
Polynôme d'AlexanderEn mathématiques, et plus précisément en théorie des nœuds, le polynôme d'Alexander est un invariant de nœuds qui associe un polynôme à coefficients entiers à chaque type de nœud. C'est le premier découvert ; il l'a été par James Waddell Alexander II, en 1923. En 1969, John Conway en montra une version, appelée à présent le polynôme d'Alexander-Conway, pouvant être calculé à l'aide d'une « » (skein relation), mais l'importance n'en fut pas comprise avant la découverte du polynôme de Jones en 1984.
Homologie de FloerL'homologie de Floer est une adaptation de l'homologie de Morse en dimension infinie. L'homologie de Floer symplectique (HFS) est une théorie homologique pour une variété symplectique munie d'un symplectomorphisme non-dégénéré. Si le symplectomorphisme est hamiltonien, l'homologie provient de l'étude de la fonctionnelle d'action symplectique sur le revêtement universel de l'espace des lacets de la variété symplectique. L'homologie de Floer symplectique est invariante par isotopie hamiltonienne du symplectomorphisme.
Canonical quantum gravityIn physics, canonical quantum gravity is an attempt to quantize the canonical formulation of general relativity (or canonical gravity). It is a Hamiltonian formulation of Einstein's general theory of relativity. The basic theory was outlined by Bryce DeWitt in a seminal 1967 paper, and based on earlier work by Peter G. Bergmann using the so-called canonical quantization techniques for constrained Hamiltonian systems invented by Paul Dirac. Dirac's approach allows the quantization of systems that include gauge symmetries using Hamiltonian techniques in a fixed gauge choice.
Assistant de preuveEn informatique (ou en mathématiques assistées par informatique), un assistant de preuve est un logiciel permettant la vérification de preuves mathématiques, soit sur des théorèmes au sens usuel des mathématiques, soit sur des assertions relatives à l'exécution de programmes informatiques. Beaucoup de projets ont été lancés pour formaliser les mathématiques, en 1966, Nicolaas de Bruijn lance le projet Automath, suivi par d'autres projets.
Extensivité et intensivité (physique)Les grandeurs extensives et intensives sont des catégories de grandeurs physiques d'un système physique : une propriété est « intensive » si sa valeur ne dépend pas de la taille du système (en particulier, si sa valeur est la même en tout point d'un système homogène) : par exemple, la température ou la pression ; une propriété est « extensive » si elle est proportionnelle à une quantité caractéristique du système : par exemple, la masse ou le volume.