Concept

Formule de Boltzmann

Résumé
thumb|Sur la tombe de Ludwig Boltzmann En physique statistique, la formule de Boltzmann (1877) définit l'entropie microcanonique d'un système physique à l'équilibre macroscopique, libre d'évoluer à l'échelle microscopique entre micro-états différents. Elle s'écrit : où est la constante de Boltzmann qui est égale à . est appelé le nombre de complexions du système ou nombre de configurations. Cette formule est gravée sur la tombe de Boltzmann (à Vienne) sous la forme : L'introduction par Boltzmann de cette interprétation statistique de l'entropie marque un tournant majeur dans la compréhension du passage d'une dynamique microscopique réversible à une évolution macroscopique irréversible. Cette interprétation permit notamment d'éclaircir le sens du théorème H, démontré par Boltzmann en 1872 à partir de son équation pour les gaz. Le théorème H fut en effet vertement critiqué par ses détracteurs. Cette idée d'interprétation statistique sera affinée en 1907 avec le modèle des urnes d'Ehrenfest, un modèle stochastique introduit par les époux Ehrenfest. Elle sera finalement synthétisée en 1911 dans leur célèbre article de revue. Entropie Thermodynamique Physique statistique Théorème H Modèle des urnes d'Ehrenfest Bernard Diu, Claudine Guthmann, Danielle Lederer, Bernard Roulet ; Physique statistique, Hermann (1992), . Joël L Lebowitz ; Boltzmann's Entropy and Time's Arrow, Physics Today 46 (September 1993), 32-38. pdf. Contient également les réponses aux lecteurs publiées dans : Physics Today 47 (1994), 113-116. Joël L Lebowitz ; Macroscopic Laws, Microscopic Dynamics, Time's Arrow and Boltzmann's Entropy, Physica A 194 (1993), 1-27. pdf. Joël L Lebowitz ; Microscopic Reversibility and Macroscopic Behavior: Physical Explanations and Mathematical Derivations, Turkish Journal of Physics 19 (1995), 1-20. Aussi dans : 25 Years of Non-Equilibrium Statistical Mechanics, Proceedings, Sitges Conference, Barcelona, Spain, 1994, dans : Lecture Notes in Physics, J.J. Brey, J. Marro, J.M. Rubí and M. San Miguel (eds.), Springer, 1995.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (23)
CH-351: Molecular dynamics and Monte-Carlo simulation
Introduction to molecular dynamics and Monte-Carlo simulation methods.
PHYS-106(b): General physics : thermodynamics
Le but du cours de Physique générale est de donner à l'étudiant les notions de base nécessaires à la compréhension des phénomènes physiques. L'objectif est atteint lorsque l'étudiant est capable de pr
PHYS-106(d): General physics : thermodynamics
Le but du cours de Physique générale est de donner à l'étudiant les notions de base nécessaires à la compréhension des phénomènes physiques. L'objectif est atteint lorsque l'étudiant est capable de pr
Afficher plus
Publications associées (59)
Concepts associés (15)
Configuration entropy
In statistical mechanics, configuration entropy is the portion of a system's entropy that is related to discrete representative positions of its constituent particles. For example, it may refer to the number of ways that atoms or molecules pack together in a mixture, alloy or glass, the number of conformations of a molecule, or the number of spin configurations in a magnet. The name might suggest that it relates to all possible configurations or particle positions of a system, excluding the entropy of their velocity or momentum, but that usage rarely occurs.
Théorème H
Le théorème H est un théorème démontré par Boltzmann en 1872 dans le cadre de la théorie cinétique des gaz. Il décrit l'évolution vers l'équilibre thermodynamique d'un gaz satisfaisant à l'équation de Boltzmann et subissant des interactions élastiques. Selon ce théorème, il existe une certaine grandeur qui varie de façon monotone au cours du temps, pendant que le gaz relaxe vers l'état d'équilibre caractérisé par la loi de Maxwell pour les vitesses des particules du milieu. Cette quantité varie à l'opposé de l'entropie thermodynamique.
Nat (information)
vignette|Unités de mesure de l'information. Un nat (parfois aussi appelé nit ou nepit) est une unité logarithmique de mesure de l'information ou de l'entropie, basée sur le logarithme néperien et les puissances de e plutôt que sur le logarithme en base 2 qui définit le bit. Le nat est l'unité naturelle pour l'entropie en théorie de l'information. Les systèmes d'unités naturelles qui normalisent la constante de Boltzmann à 1 mesurent effectivement une entropie en nats.
Afficher plus