Musique de la période classiqueLa musique de la période classique recouvre par convention la musique écrite entre la mort de Johann Sebastian Bach soit 1750 et le début de la période romantique, soit les années 1820. Par extension, on appelle « musique classique » (ou grande musique) toute la musique savante européenne, de la musique du Moyen Âge à la musique contemporaine.
Gamme musicalethumb|Gamme de do majeur |alt=Portée de musique montrant la clé de sol et la gamme de do majeur, composée des notes do ré mi fa sol la si do. En musique, une gamme (appelée aussi parfois « échelle ») est un ensemble de sons, appelés degrés, formant le cadre dans lequel se bâtit une œuvre musicale. Une échelle musicale est caractérisée par les intervalles conjoints qui la composent — c'est-à-dire, les intervalles entre degrés voisins —, et ce, indépendamment de toute idée de tonalité et de tonique.
Micro-état (physique statistique)En physique statistique, un micro-état (appelé aussi configuration microscopique ou bien état microscopique) est la spécification détaillée d'une configuration microscopique d'un système. Le système visite ce micro-état au cours de ses fluctuations thermiques. Par contraste, le macro-état (appelé aussi configuration macroscopique ou encore état macroscopique) d'un système fait référence à ses propriétés macroscopiques, telles que la pression et la température.
Musique de chambreUne œuvre de musique de chambre est une composition musicale destinée à un petit ensemble de cordes, bois, cuivres ou percussions, qui traditionnellement et avant l'affirmation des concerts publics, pouvait tenir dans la « grande chambre » d'un palais. Chaque partie est écrite pour un seul instrumentiste sans qu'il y ait à l'origine ni chef d'orchestre ni soliste attitré. Si certaines voix sont doublées ou triplées, particulièrement dans les cordes, on parle d'orchestre de chambre ; au-delà, on parle d'orchestre, avec le qualificatif de sa composition instrumentale (symphonique, à cordes, d'harmonie, de fanfare).
Music historyMusic history, sometimes called historical musicology, is a highly diverse subfield of the broader discipline of musicology that studies music from a historical point of view. In theory, "music history" could refer to the study of the history of any type or genre of music (e.g., the history of Indian music or the history of rock). In practice, these research topics are often categorized as part of ethnomusicology or cultural studies, whether or not they are ethnographically based.
Mécanique newtonienneLa mécanique newtonienne est une branche de la physique. Depuis les travaux d'Albert Einstein, elle est souvent qualifiée de mécanique classique. La mécanique classique ou mécanique newtonienne est une théorie physique qui décrit le mouvement des objets macroscopiques lorsque leur vitesse est faible par rapport à celle de la lumière. Avant de devenir une science à part entière, la mécanique a longtemps été une section des mathématiques. De nombreux mathématiciens y ont apporté une contribution souvent décisive, parmi eux des grands noms tels qu'Euler, Cauchy, Lagrange.
Interaction informationThe interaction information is a generalization of the mutual information for more than two variables. There are many names for interaction information, including amount of information, information correlation, co-information, and simply mutual information. Interaction information expresses the amount of information (redundancy or synergy) bound up in a set of variables, beyond that which is present in any subset of those variables. Unlike the mutual information, the interaction information can be either positive or negative.
Conditional mutual informationIn probability theory, particularly information theory, the conditional mutual information is, in its most basic form, the expected value of the mutual information of two random variables given the value of a third. For random variables , , and with support sets , and , we define the conditional mutual information as This may be written in terms of the expectation operator: . Thus is the expected (with respect to ) Kullback–Leibler divergence from the conditional joint distribution to the product of the conditional marginals and .
Variation of informationIn probability theory and information theory, the variation of information or shared information distance is a measure of the distance between two clusterings (partitions of elements). It is closely related to mutual information; indeed, it is a simple linear expression involving the mutual information. Unlike the mutual information, however, the variation of information is a true metric, in that it obeys the triangle inequality. Suppose we have two partitions and of a set into disjoint subsets, namely and .
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.