Politique énergétiqueLa politique énergétique est la politique adoptée par une entité vis-à-vis de la gestion de l'énergie. Elle a notamment une dimension géopolitique. Académies suisses des sciences, « Instruments pour une politique climatique et énergétique efficace », fiche d'information, 2019. Agence internationale de l'énergie Certificat économie énergie Dépendance au pétrole Direction générale de l'énergie et des matières premières Politique climatique Politique énergétique de l'Union européenne Politiques publiques de rénovation énergétique Sécurité énergétique Les invariants de l'énergie, conférence de Samuele Furfari sur la consommation d'énergie par l'homme (dépendance, ressources et contexte géopolitique).
Moteur à combustion internevignette|upright|Moteur à quatre temps. Un moteur à combustion interne ou MCI ( ou ICE) est un type de , c'est-à-dire un moteur permettant d'obtenir un travail mécanique à partir d'un gaz en surpression, cette dernière étant obtenue à l'aide d'un processus de combustion. Dans le cas d'un moteur à combustion interne, cette combustion a lieu à l'intérieur du moteur. Il existe deux grands types de moteurs à combustion interne : les moteurs produisant un couple sur un arbre mécanique et les moteurs à réaction éjectant rapidement un fluide par une tuyère.
Binary entropy functionIn information theory, the binary entropy function, denoted or , is defined as the entropy of a Bernoulli process with probability of one of two values. It is a special case of , the entropy function. Mathematically, the Bernoulli trial is modelled as a random variable that can take on only two values: 0 and 1, which are mutually exclusive and exhaustive. If , then and the entropy of (in shannons) is given by where is taken to be 0. The logarithms in this formula are usually taken (as shown in the graph) to the base 2.
Entropy in thermodynamics and information theoryThe mathematical expressions for thermodynamic entropy in the statistical thermodynamics formulation established by Ludwig Boltzmann and J. Willard Gibbs in the 1870s are similar to the information entropy by Claude Shannon and Ralph Hartley, developed in the 1940s. The defining expression for entropy in the theory of statistical mechanics established by Ludwig Boltzmann and J. Willard Gibbs in the 1870s, is of the form: where is the probability of the microstate i taken from an equilibrium ensemble, and is the Boltzmann's constant.