Relations between heat capacitiesIn thermodynamics, the heat capacity at constant volume, , and the heat capacity at constant pressure, , are extensive properties that have the magnitude of energy divided by temperature. The laws of thermodynamics imply the following relations between these two heat capacities (Gaskell 2003:23): Here is the thermal expansion coefficient: is the isothermal compressibility (the inverse of the bulk modulus): and is the isentropic compressibility: A corresponding expression for the difference in specific heat capacities (intensive properties) at constant volume and constant pressure is: where ρ is the density of the substance under the applicable conditions.
Moyenne géométriqueEn mathématiques, la moyenne géométrique est un type de moyenne. La moyenne géométrique de deux nombres positifs a et b est le nombre positif c tel que : Cette égalité étant une proportion, ceci justifie l'autre appellation « moyenne proportionnelle » de la moyenne géométrique. vignette|La moyenne géométrique des côtés d'un rectangle est donnée par un carré de même aire. Elle est construite par un cercle tangent aux deux cercles définis par les côtés du rectangle et les séparant.
Constante universelle des gaz parfaitsLa constante universelle des gaz parfaits (notée , ou ) est le produit du nombre d'Avogadro () et de la constante de Boltzmann (). Ce produit vaut exactement . La constante universelle des gaz parfaits a été empiriquement déterminée en tant que constante de proportionnalité de l'équation des gaz parfaits. Elle établit le lien entre les variables d'état que sont la température, la quantité de matière, la pression et le volume. Elle est également utilisée dans de nombreuses autres applications et formules.
VolumeLe volume, en sciences physiques ou mathématiques, est une grandeur qui mesure l'extension d'un objet ou d'une partie de l'espace. En physique : le volume d'un objet ou d'une figure géométrique tridimensionnelle et fermée mesure l'extension dans l'espace physique qu'il ou elle possède dans les trois directions en même temps, de même que l'aire d'une figure dans le plan mesure l'extension qu'elle possède dans les deux directions en même temps ; par extension, on étend la notion de volume à des espaces abstraits, dont les coordonnées peuvent avoir une ou des dimensions autres que celle d'une longueur.
Moyenne quasi-arithmétiqueEn mathématiques et en statistiques, les moyennes quasi-arithmétiques, ou moyennes de Kolmogorov ou encore moyennes selon une fonction f constituent une généralisation de la moyenne (de Hölder) d'ordre p (qui est elle-même une généralisation des moyennes usuelles : arithmétique, géométrique). Elles sont paramétrées par une fonction f. Soit une fonction d'un intervalle dans les nombres réels, continue et injective. La moyenne selon la fonction f des nombres est définie par , que l'on peut aussi écrire Il est nécessaire que soit injective pour que son inverse soit définie.
Entropie minEn probabilités et en théorie de l'information, l'entropie min d'une variable aléatoire discrète X prenant n valeurs ou sorties possibles 1... n associées au probabilités p1... pn est : La base du logarithme est juste une constante d'échelle. Pour avoir un résultat en bits, il faut utiliser le logarithme en base 2. Ainsi, une distribution a une entropie min d'au moins b bits si aucune sortie n'a une probabilité plus grande que 2-b. L'entropie min est toujours inférieure ou égale à l'entropie de Shannon; avec égalité si toutes les valeurs de X sont équiprobables.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Dilatation thermiqueLa dilatation thermique est l'expansion à pression constante du volume d'un corps occasionné par son réchauffement, généralement imperceptible. Dans le cas d'un gaz, il y a dilatation à pression constante ou maintien du volume et augmentation de la pression lorsque la température augmente. À l'opposé de la dilatation, un refroidissement provoque une contraction thermique. Dans un solide, les atomes possèdent une énergie thermique et vibrent autour de leur position moyenne.
High-pressure areaA high-pressure area, high, or anticyclone, is an area near the surface of a planet where the atmospheric pressure is greater than the pressure in the surrounding regions. Highs are middle-scale meteorological features that result from interplays between the relatively larger-scale dynamics of an entire planet's atmospheric circulation. The strongest high-pressure areas result from masses of cold air which spread out from polar regions into cool neighboring regions. These highs weaken once they extend out over warmer bodies of water.