Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
SupraconductivitéLa supraconductivité, ou supraconduction, est un phénomène physique caractérisé par l'absence de résistance électrique et l'expulsion du champ magnétique — l'effet Meissner — à l'intérieur de certains matériaux dits supraconducteurs. La supraconductivité découverte historiquement en premier, et que l'on nomme communément supraconductivité conventionnelle, se manifeste à des températures très basses, proches du zéro absolu (). La supraconductivité permet notamment de transporter de l'électricité sans perte d'énergie.
Distribution de BoltzmannEn physique statistique, la distribution de Boltzmann prédit la fonction de distribution pour le nombre fractionnaire de particules Ni / N occupant un ensemble d'états i qui ont chacun pour énergie Ei : où est la constante de Boltzmann, T est la température (postulée comme étant définie très précisément), est la dégénérescence, ou le nombre d'états d'énergie , N est le nombre total de particules : et Z(T) est appelée fonction de partition, qui peut être considérée comme égale à : D'autre part, pour un systè
Énergie interneL’énergie interne d’un système thermodynamique est l'énergie qu'il renferme. C'est une fonction d'état extensive, associée à ce système. Elle est égale à la somme de l’énergie cinétique de chaque entité élémentaire de masse non nulle et de toutes les énergies potentielles d’interaction des entités élémentaires de ce système. En fait, elle correspond à l'énergie intrinsèque du système, définie à l'échelle microscopique, à l'exclusion de l'énergie cinétique ou potentielle d'interaction du système avec son environnement, à l'échelle macroscopique.
Ensemble canoniqueEn physique statistique, l’ensemble (ou situation) canonique est un ensemble statistique introduit par le physicien américain Josiah Willard Gibbs. Il correspond au cas d'un système physique de volume donné et contenant un nombre fixe de particules, en interaction avec un autre système, appelé réservoir ou thermostat, beaucoup plus grand que le système considéré et avec lequel il peut échanger de l'énergie mais pas de matière. Le thermostat se comporte comme un réservoir supposé infini d'énergie, la réunion des deux systèmes étant considérée comme isolée.
Espace des phasesdroite|vignette| Trajectoires dans l'espace des phases pour un pendule simple. L'axe X correspond à la position du pendule, et l'axe Y sa vitesse. Dans la théorie des systèmes dynamiques, l'espace des phases (ou espace d'état) d'un système est l'espace mathématique dans lequel tous les états possibles du système sont représentés ; chaque état possible correspondant à un point unique dans l'espace des phases. Pour un système mécanique, l'espace des phases se compose généralement de toutes les valeurs possibles des variables de position et d'impulsion représentant le système.
Transition de phasevignette|droite|Noms exclusifs des transitions de phase en thermodynamique. En physique, une transition de phase est la transformation physique d'un système d'une phase vers une autre, induite par la variation d'un paramètre de contrôle externe (température, champ magnétique...). Une telle transition se produit lorsque ce paramètre externe atteint une valeur seuil (ou valeur « critique »). La transformation traduit généralement un changement des propriétés de symétrie du système.
Équation d'étatEn physique, et plus particulièrement en thermodynamique, une équation d'état d'un système à l'équilibre thermodynamique est une relation entre différents paramètres physiques (appelés variables d'état) qui déterminent son état. Il peut s'agir par exemple d'une relation entre sa température, sa pression et son volume. À partir de l'équation d'état caractéristique d'un système physique, il est possible de déterminer la totalité des quantités thermodynamiques décrivant ce système et par suite de prédire ses propriétés.
Énergie (physique)En physique, l'énergie est une grandeur qui mesure la capacité d'un système à modifier un état, à produire un travail entraînant un mouvement, un rayonnement électromagnétique ou de la chaleur. Dans le Système international d'unités (SI), l'énergie s'exprime en joules et est de dimension . Le mot français vient du latin vulgaire energia, lui-même issu du grec ancien / enérgeia. Ce terme grec originel signifie « force en action », par opposition à / dýnamis signifiant « force en puissance » ; Aristote a utilisé ce terme , pour désigner la réalité effective en opposition à la réalité possible.
Deuxième principe de la thermodynamiqueLe deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l'irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C'est un principe d'évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l'objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du et au-delà jusqu'à nos jours.