Entropy (statistical thermodynamics)The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.
Loschmidt's paradoxIn physics, Loschmidt's paradox (named for J.J. Loschmidt), also known as the reversibility paradox, irreversibility paradox, or Umkehreinwand (), is the objection that it should not be possible to deduce an irreversible process from time-symmetric dynamics. This puts the time reversal symmetry of (almost) all known low-level fundamental physical processes at odds with any attempt to infer from them the second law of thermodynamics which describes the behaviour of macroscopic systems.
Formule de Boltzmannthumb|Sur la tombe de Ludwig Boltzmann En physique statistique, la formule de Boltzmann (1877) définit l'entropie microcanonique d'un système physique à l'équilibre macroscopique, libre d'évoluer à l'échelle microscopique entre micro-états différents. Elle s'écrit : où est la constante de Boltzmann qui est égale à . est appelé le nombre de complexions du système ou nombre de configurations.
Ensemble microcanoniqueEn physique statistique, l'ensemble microcanonique est un ensemble statistique constitué des répliques fictives d'un système réel pouvant être considéré comme isolé, par suite dont l'énergie (E), le volume (V) et le nombre de particules (N) sont fixés. Cet ensemble statistique a une importance particulière, car c'est à partir de celui-ci que le postulat de la physique statistique est défini. Cet ensemble permet aussi de déterminer les ensembles canonique et grand-canonique, à l'aide d'échanges d'énergie et/ou de particules avec un réservoir.
Système isolévignette|Propriétés des systèmes isolés, fermés et ouverts dans l'échange d'énergie et de matière. Un système isolé, par opposition à un système ouvert, est un système physique qui n'interagit pas avec ses environnements. On dit d’un système qu’il est isolé s’il n'échange ni matière, ni chaleur, ni travail avec l'extérieur (paroi adiabatique et indéformable) – un système fermé peut échanger de la chaleur ou du travail avec l'extérieur, mais pas de la matière.
Maximum entropy thermodynamicsIn physics, maximum entropy thermodynamics (colloquially, MaxEnt thermodynamics) views equilibrium thermodynamics and statistical mechanics as inference processes. More specifically, MaxEnt applies inference techniques rooted in Shannon information theory, Bayesian probability, and the principle of maximum entropy. These techniques are relevant to any situation requiring prediction from incomplete or insufficient data (e.g., , signal processing, spectral analysis, and inverse problems).
Système thermodynamiqueEn thermodynamique classique, un système thermodynamique est une portion de l'Univers que l'on isole par la pensée du reste de l'Univers, ce dernier constituant alors le milieu extérieur. Le système thermodynamique n'est pas forcément défini par une frontière matérielle, ni nécessairement connexe. Les gouttes de liquide dans un brouillard, par exemple, définissent un système thermodynamique. Le milieu extérieur considéré est constitué par la portion d'Univers en interaction avec le système étudié.
Entropy as an arrow of timeEntropy is one of the few quantities in the physical sciences that require a particular direction for time, sometimes called an arrow of time. As one goes "forward" in time, the second law of thermodynamics says, the entropy of an isolated system can increase, but not decrease. Thus, entropy measurement is a way of distinguishing the past from the future. In thermodynamic systems that are not isolated, local entropy can decrease over time, accompanied by a compensating entropy increase in the surroundings; examples include objects undergoing cooling, living systems, and the formation of typical crystals.
Équation de BoltzmannL' équation de Boltzmann ou équation de transport de Boltzmann décrit le comportement statistique d'un système thermodynamique hors état d'équilibre, conçue par Ludwig Boltzmann en 1872. L'exemple classique d'un tel système est un fluide avec des gradients de température dans l'espace provoquant un flux de chaleur des régions les plus chaudes vers les plus froides, par le transport aléatoire mais orienté des particules composant ce fluide.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.