Entropy productionEntropy production (or generation) is the amount of entropy which is produced during heat process to evaluate the efficiency of the process. Entropy is produced in irreversible processes. The importance of avoiding irreversible processes (hence reducing the entropy production) was recognized as early as 1824 by Carnot. In 1865 Rudolf Clausius expanded his previous work from 1854 on the concept of "unkompensierte Verwandlungen" (uncompensated transformations), which, in our modern nomenclature, would be called the entropy production.
Température de CurieLa température de Curie (ou point de Curie) d'un matériau ferromagnétique ou ferrimagnétique est la température T à laquelle le matériau perd son aimantation permanente. Le matériau devient alors paramagnétique. Ce phénomène a été découvert par le physicien français Pierre Curie en 1895. L’aimantation permanente est causée par l’alignement des moments magnétiques. La susceptibilité magnétique au-dessus de la température de Curie peut alors être calculée à partir de la loi de Curie-Weiss, qui dérive de la loi de Curie.
Entropy as an arrow of timeEntropy is one of the few quantities in the physical sciences that require a particular direction for time, sometimes called an arrow of time. As one goes "forward" in time, the second law of thermodynamics says, the entropy of an isolated system can increase, but not decrease. Thus, entropy measurement is a way of distinguishing the past from the future. In thermodynamic systems that are not isolated, local entropy can decrease over time, accompanied by a compensating entropy increase in the surroundings; examples include objects undergoing cooling, living systems, and the formation of typical crystals.
Température thermodynamiqueLa température thermodynamique est une formalisation de la notion expérimentale de température et constitue l’une des grandeurs principales de la thermodynamique. Elle est intrinsèquement liée à l'entropie. Usuellement notée , la température thermodynamique se mesure en kelvins (symbole K). Encore souvent qualifiée de « température absolue », elle constitue une mesure absolue parce qu’elle traduit directement le phénomène physique fondamental qui la sous-tend : l’agitation des constituant la matière (translation, vibration, rotation, niveaux d'énergie électronique).
SupraconductivitéLa supraconductivité, ou supraconduction, est un phénomène physique caractérisé par l'absence de résistance électrique et l'expulsion du champ magnétique — l'effet Meissner — à l'intérieur de certains matériaux dits supraconducteurs. La supraconductivité découverte historiquement en premier, et que l'on nomme communément supraconductivité conventionnelle, se manifeste à des températures très basses, proches du zéro absolu (). La supraconductivité permet notamment de transporter de l'électricité sans perte d'énergie.
WustiteLa wustite est l'espèce minérale de l'oxyde de fer(II) FeO, qu'on retrouve en trace de surface sur le fer natif ou les météorites. La wustite a une couleur grise, avec un éclat verdâtre. Elle cristallise dans le système cristallin cubique, en des grains opaques ou métalliques translucides. Sa dureté de Mohs est comprise entre 5 et 5,5, et une densité de 5,88. Le nom vient de (1860–1938), un métallurgiste allemand, directeur du Kaiser-Wilhelm-Institut für Eisenforschung de Düsseldorf, maintenant appelé Institut Max-Planck de sidérurgie.
Indice adiabatiqueEn thermodynamique, l'indice adiabatique d'un gaz (corps pur ou mélange), aussi appelé coefficient adiabatique, exposant adiabatique ou coefficient de Laplace, noté , est défini comme le rapport de ses capacités thermiques à pression constante (isobare) et à volume constant (isochore) : Le coefficient de Laplace se définit également à partir des capacités thermiques molaires et si la transformation concerne moles de gaz, ou des capacités thermiques massiques (ou spécifiques) et si la transformation concerne
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Thermodynamic databases for pure substancesThermodynamic databases contain information about thermodynamic properties for substances, the most important being enthalpy, entropy, and Gibbs free energy. Numerical values of these thermodynamic properties are collected as tables or are calculated from thermodynamic datafiles. Data is expressed as temperature-dependent values for one mole of substance at the standard pressure of 101.325 kPa (1 atm), or 100 kPa (1 bar). Both of these definitions for the standard condition for pressure are in use.
Diffusion RamanLa diffusion Raman, ou effet Raman, est un phénomène optique découvert indépendamment en 1928 par les physiciens Chandrashekhara Venkata Râman et Leonid Mandelstam. Cet effet consiste en la diffusion inélastique d'un photon, c'est-à-dire le phénomène physique par lequel un milieu peut modifier légèrement la fréquence de la lumière qui y circule. Ce décalage en fréquence correspond à un échange d'énergie entre le rayon lumineux et le milieu. Cet effet physique fut prédit par Adolf Smekal en 1923.