Fluctuation theoremThe fluctuation theorem (FT), which originated from statistical mechanics, deals with the relative probability that the entropy of a system which is currently away from thermodynamic equilibrium (i.e., maximum entropy) will increase or decrease over a given amount of time. While the second law of thermodynamics predicts that the entropy of an isolated system should tend to increase until it reaches equilibrium, it became apparent after the discovery of statistical mechanics that the second law is only a statistical one, suggesting that there should always be some nonzero probability that the entropy of an isolated system might spontaneously decrease; the fluctuation theorem precisely quantifies this probability.
Théorème HLe théorème H est un théorème démontré par Boltzmann en 1872 dans le cadre de la théorie cinétique des gaz. Il décrit l'évolution vers l'équilibre thermodynamique d'un gaz satisfaisant à l'équation de Boltzmann et subissant des interactions élastiques. Selon ce théorème, il existe une certaine grandeur qui varie de façon monotone au cours du temps, pendant que le gaz relaxe vers l'état d'équilibre caractérisé par la loi de Maxwell pour les vitesses des particules du milieu. Cette quantité varie à l'opposé de l'entropie thermodynamique.
Thermodynamique hors équilibreLa thermodynamique hors équilibre est le domaine de recherche étudiant les phénomènes de relaxation et de transport au voisinage de l'équilibre thermodynamique. Il s'agit là de phénomènes dissipatifs donc irréversibles, liés à une augmentation de l'entropie. Les méthodes présentées ici relèvent de la thermodynamique proprement dite, qui permet de donner les lois caractérisant un phénomène.
Symétrie TNommée ainsi dans le cadre de la physique des particules, on dit qu'une théorie possède la symétrie T, ou encore symétrie par renversement du temps, si elle est invariante sous la transformation d'inversion du temps c'est-à-dire qui effectue le changement suivant sur la coordonnée de temps Alors que la symétrie T semble naturelle en mécanique quantique, elle est néanmoins violée dans le cadre du modèle standard car la symétrie CP est violée alors que par la symétrie CPT obtenue par application simultanée du
Flèche du tempsLa flèche du temps est une expression introduite en 1928 par Arthur Eddington pour décrire le phénomène selon lequel le temps semble s'écouler toujours dans la même direction. Cette expression recouvre un ensemble de théories qui explique pourquoi le temps s'écoule de manière unidirectionnelle. La flèche du temps fait partie des problèmes non résolus de la physique et elle suscite plusieurs controverses.
Fonction de partitionEn physique statistique, la fonction de partition Z est une grandeur fondamentale qui englobe les propriétés statistiques d'un système à l'équilibre thermodynamique. C'est une fonction de la température et d'autres paramètres, tels que le volume contenant un gaz par exemple. La plupart des variables thermodynamiques du système, telles que l'énergie totale, l'entropie, l'énergie libre ou la pression peuvent être exprimées avec cette fonction et ses dérivées.
Probabilité a prioriDans le théorème de Bayes, la probabilité a priori (ou prior) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior) correspondante qui s'appuie sur les connaissances postérieures à cette observation. Le théorème de Bayes s'énonce de la manière suivante : si . désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .
Constante de BoltzmannLa constante de Boltzmann k (ou k) a été introduite par Ludwig Boltzmann dans sa définition de l'entropie de 1877. Le système étant à l'équilibre macroscopique, mais libre d'évoluer à l'échelle microscopique entre micro-états différents, son entropie S est donnée par : où la constante k retenue par le CODATA vaut (valeur exacte). La constante des gaz parfaits est liée à la constante de Boltzmann par la relation : (avec (valeur exacte) le nombre d'Avogadro, nombre de particules dans une mole). D'où :.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Deuxième principe de la thermodynamiqueLe deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l'irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C'est un principe d'évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l'objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du et au-delà jusqu'à nos jours.