Concepts associés (15)
Configuration entropy
In statistical mechanics, configuration entropy is the portion of a system's entropy that is related to discrete representative positions of its constituent particles. For example, it may refer to the number of ways that atoms or molecules pack together in a mixture, alloy or glass, the number of conformations of a molecule, or the number of spin configurations in a magnet. The name might suggest that it relates to all possible configurations or particle positions of a system, excluding the entropy of their velocity or momentum, but that usage rarely occurs.
Théorème H
Le théorème H est un théorème démontré par Boltzmann en 1872 dans le cadre de la théorie cinétique des gaz. Il décrit l'évolution vers l'équilibre thermodynamique d'un gaz satisfaisant à l'équation de Boltzmann et subissant des interactions élastiques. Selon ce théorème, il existe une certaine grandeur qui varie de façon monotone au cours du temps, pendant que le gaz relaxe vers l'état d'équilibre caractérisé par la loi de Maxwell pour les vitesses des particules du milieu. Cette quantité varie à l'opposé de l'entropie thermodynamique.
Nat (information)
vignette|Unités de mesure de l'information. Un nat (parfois aussi appelé nit ou nepit) est une unité logarithmique de mesure de l'information ou de l'entropie, basée sur le logarithme néperien et les puissances de e plutôt que sur le logarithme en base 2 qui définit le bit. Le nat est l'unité naturelle pour l'entropie en théorie de l'information. Les systèmes d'unités naturelles qui normalisent la constante de Boltzmann à 1 mesurent effectivement une entropie en nats.
Entropy (statistical thermodynamics)
The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.
Paradoxe de Gibbs
Le paradoxe de Gibbs est un pseudo-paradoxe apparaissant lorsqu'on cherche à concilier la thermodynamique et la physique statistique. Il intervient lors du calcul de l'entropie de mélange de deux gaz parfaits. Il a été nommé d'après le physicien Willard Gibbs qui l'a découvert en 1861 dans l'application du théorème qui porte son nom. On retrouve la mention de ce paradoxe au chapitre 16 de son ouvrage paru en 1902. Supposons une boîte divisée par une paroi mobile en deux compartiments de même volume .
Ensemble microcanonique
En physique statistique, l'ensemble microcanonique est un ensemble statistique constitué des répliques fictives d'un système réel pouvant être considéré comme isolé, par suite dont l'énergie (E), le volume (V) et le nombre de particules (N) sont fixés. Cet ensemble statistique a une importance particulière, car c'est à partir de celui-ci que le postulat de la physique statistique est défini. Cet ensemble permet aussi de déterminer les ensembles canonique et grand-canonique, à l'aide d'échanges d'énergie et/ou de particules avec un réservoir.
Micro-état (physique statistique)
En physique statistique, un micro-état (appelé aussi configuration microscopique ou bien état microscopique) est la spécification détaillée d'une configuration microscopique d'un système. Le système visite ce micro-état au cours de ses fluctuations thermiques. Par contraste, le macro-état (appelé aussi configuration macroscopique ou encore état macroscopique) d'un système fait référence à ses propriétés macroscopiques, telles que la pression et la température.
Ensemble statistique
En physique statistique, un ensemble statistique est une abstraction qui consiste à considérer une collection de copies virtuelles (ou répliques) d'un système physique dans l'ensemble des états accessibles où il est susceptible de se trouver, compte tenu des contraintes extérieures qui lui sont imposées, telles le volume, le nombre de particules, l'énergie et la température. Cette notion, introduite par le physicien américain Josiah Willard Gibbs en 1902, est un concept central de la physique statistique.
Entropie de Shannon
En théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Particules indiscernables
Les particules indiscernables ou particules identiques sont des particules qui ne peuvent être différenciées l'une de l'autre, même en principe. Ce concept prend tout son sens en mécanique quantique, où les particules n'ont pas de trajectoire bien définie qui permettrait de les distinguer l'une de l'autre. Les particules indiscernables peuvent être soit des particules élémentaires telles que l'électron ou le photon, ou des particules composites - neutron, proton - ayant le même état interne.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.