TempératureLa température est une grandeur physique mesurée à l’aide d’un thermomètre et étudiée en thermométrie. Dans la vie courante, elle est reliée aux sensations de froid et de chaud, provenant du transfert thermique entre le corps humain et son environnement. En physique, elle se définit de plusieurs manières : comme fonction croissante du degré d’agitation thermique des particules (en théorie cinétique des gaz), par l’équilibre des transferts thermiques entre plusieurs systèmes ou à partir de l’entropie (en thermodynamique et en physique statistique).
Température thermodynamiqueLa température thermodynamique est une formalisation de la notion expérimentale de température et constitue l’une des grandeurs principales de la thermodynamique. Elle est intrinsèquement liée à l'entropie. Usuellement notée , la température thermodynamique se mesure en kelvins (symbole K). Encore souvent qualifiée de « température absolue », elle constitue une mesure absolue parce qu’elle traduit directement le phénomène physique fondamental qui la sous-tend : l’agitation des constituant la matière (translation, vibration, rotation, niveaux d'énergie électronique).
Transition énergétiqueLa transition énergétique désigne à la fois l'évolution passée de la répartition des énergies consommées sur la planète (bois, hydroélectricité, charbon, pétrole, gaz naturel, nucléaire, etc.) et, pour l'avenir, l'objectif politique et technique d'une modification structurelle profonde des modes de production et de consommation de l'énergie. C'est l'un des volets de la transition écologique.
Entropy as an arrow of timeEntropy is one of the few quantities in the physical sciences that require a particular direction for time, sometimes called an arrow of time. As one goes "forward" in time, the second law of thermodynamics says, the entropy of an isolated system can increase, but not decrease. Thus, entropy measurement is a way of distinguishing the past from the future. In thermodynamic systems that are not isolated, local entropy can decrease over time, accompanied by a compensating entropy increase in the surroundings; examples include objects undergoing cooling, living systems, and the formation of typical crystals.
Énergie primaireUne source d’énergie primaire est une forme d’énergie disponible dans la nature avant toute transformation. Si elle n’est pas utilisable directement, elle doit être transformée en une source d’énergie secondaire pour être utilisable et transportable facilement. Dans l'industrie de l'énergie, on distingue la production d'énergie primaire, de son stockage et son transport sous la forme de vecteurs d'énergie et de la consommation d'énergie finale.
Maximum entropy thermodynamicsIn physics, maximum entropy thermodynamics (colloquially, MaxEnt thermodynamics) views equilibrium thermodynamics and statistical mechanics as inference processes. More specifically, MaxEnt applies inference techniques rooted in Shannon information theory, Bayesian probability, and the principle of maximum entropy. These techniques are relevant to any situation requiring prediction from incomplete or insufficient data (e.g., , signal processing, spectral analysis, and inverse problems).
Energy developmentEnergy development is the field of activities focused on obtaining sources of energy from natural resources. These activities include the production of renewable, nuclear, and fossil fuel derived sources of energy, and for the recovery and reuse of energy that would otherwise be wasted. Energy conservation and efficiency measures reduce the demand for energy development, and can have benefits to society with improvements to environmental issues.
Micro-état (physique statistique)En physique statistique, un micro-état (appelé aussi configuration microscopique ou bien état microscopique) est la spécification détaillée d'une configuration microscopique d'un système. Le système visite ce micro-état au cours de ses fluctuations thermiques. Par contraste, le macro-état (appelé aussi configuration macroscopique ou encore état macroscopique) d'un système fait référence à ses propriétés macroscopiques, telles que la pression et la température.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Climatisation solaireL'expression « climatisation solaire » désigne l'ensemble des moyens de climatiser en utilisant comme ressource énergétique primaire l'énergie communiquée par les rayonnements du soleil. La production de froid s'effectue soit en récupérant la chaleur solaire grâce à des capteurs solaires thermiques, soit en utilisant l'électricité solaire, produite par des panneaux photovoltaïques par exemple.