Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Deuxième principe de la thermodynamiqueLe deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l'irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C'est un principe d'évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l'objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du et au-delà jusqu'à nos jours.
Température négativeCertains systèmes quantiques liés à la résonance magnétique nucléaire dans les cristaux ou les gaz ultrafroids possèdent des distributions d'énergie particulières pouvant être entièrement peuplées dans l'état de plus basse énergie (zéro absolu) mais également dans l'état de plus haute énergie. L'expression habituelle donnant la température d'un système à volume constant : (avec la température absolue, l'énergie interne, l'entropie, le volume) conduit donc à une fonction non définie au maximum d'entropie et négative au-delà.
Binary entropy functionIn information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2.
Principe d'entropie maximaleLe principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. De toutes ces distributions, c'est en effet celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser.
Thermodynamique hors équilibreLa thermodynamique hors équilibre est le domaine de recherche étudiant les phénomènes de relaxation et de transport au voisinage de l'équilibre thermodynamique. Il s'agit là de phénomènes dissipatifs donc irréversibles, liés à une augmentation de l'entropie. Les méthodes présentées ici relèvent de la thermodynamique proprement dite, qui permet de donner les lois caractérisant un phénomène.
Chimie physiqueLa chimie physique est l’étude des bases physiques des systèmes chimiques et des procédés. En particulier, la description énergétique des diverses transformations fait partie de la chimie physique. Elle fait appel à des disciplines importantes comme la thermodynamique chimique (ou thermochimie), la cinétique chimique, la mécanique statistique, la spectroscopie et l’électrochimie.
Entropy (statistical thermodynamics)The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.
Paradoxe de GibbsLe paradoxe de Gibbs est un pseudo-paradoxe apparaissant lorsqu'on cherche à concilier la thermodynamique et la physique statistique. Il intervient lors du calcul de l'entropie de mélange de deux gaz parfaits. Il a été nommé d'après le physicien Willard Gibbs qui l'a découvert en 1861 dans l'application du théorème qui porte son nom. On retrouve la mention de ce paradoxe au chapitre 16 de son ouvrage paru en 1902. Supposons une boîte divisée par une paroi mobile en deux compartiments de même volume .
Pompe à chaleurUne pompe à chaleur (PAC), aussi appelée thermopompe en français canadien, est un dispositif permettant de transférer de l'énergie thermique (anciennement « calories ») d'un milieu à basse température (source froide) vers un milieu à haute température (source chaude). Ce dispositif permet donc d'inverser le sens naturel du transfert spontané de l'énergie thermique. Selon le sens de fonctionnement du dispositif de pompage, une pompe à chaleur peut être considérée comme un système de chauffage, si l'on souhaite augmenter la température de la source chaude, ou de réfrigération, si l'on souhaite abaisser la température de la source froide.