Entropy (classical thermodynamics)In classical thermodynamics, entropy () is a property of a thermodynamic system that expresses the direction or outcome of spontaneous changes in the system. The term was introduced by Rudolf Clausius in the mid-19th century to explain the relationship of the internal energy that is available or unavailable for transformations in form of heat and work. Entropy predicts that certain processes are irreversible or impossible, despite not violating the conservation of energy.
Scaled correlationIn statistics, scaled correlation is a form of a coefficient of correlation applicable to data that have a temporal component such as time series. It is the average short-term correlation. If the signals have multiple components (slow and fast), scaled coefficient of correlation can be computed only for the fast components of the signals, ignoring the contributions of the slow components. This filtering-like operation has the advantages of not having to make assumptions about the sinusoidal nature of the signals.
Rank correlationIn statistics, a rank correlation is any of several statistics that measure an ordinal association—the relationship between rankings of different ordinal variables or different rankings of the same variable, where a "ranking" is the assignment of the ordering labels "first", "second", "third", etc. to different observations of a particular variable. A rank correlation coefficient measures the degree of similarity between two rankings, and can be used to assess the significance of the relation between them.
Entropy productionEntropy production (or generation) is the amount of entropy which is produced during heat process to evaluate the efficiency of the process. Entropy is produced in irreversible processes. The importance of avoiding irreversible processes (hence reducing the entropy production) was recognized as early as 1824 by Carnot. In 1865 Rudolf Clausius expanded his previous work from 1854 on the concept of "unkompensierte Verwandlungen" (uncompensated transformations), which, in our modern nomenclature, would be called the entropy production.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Temperature–entropy diagramIn thermodynamics, a temperature–entropy (T–s) diagram is a thermodynamic diagram used to visualize changes to temperature (T ) and specific entropy (s) during a thermodynamic process or cycle as the graph of a curve. It is a useful and common tool, particularly because it helps to visualize the heat transfer during a process. For reversible (ideal) processes, the area under the T–s curve of a process is the heat transferred to the system during that process. Working fluids are often categorized on the basis of the shape of their T–s diagram.
Horizon des particulesEn relativité restreinte et en relativité générale, l'horizon des particules à un instant donné est la limite dans l'Univers entre l'ensemble des particules qui ont été observables à un temps antérieur et celles qui ne l'ont pas été. Cet horizon est la limite de l'univers observable. L'horizon des particules est le pendant de l'horizon des évènements, qui détermine la limite éventuelle de la région qui peut être influencée dans le futur par un observateur situé en un endroit donné à une époque donnée. Univ
Horizon des événementsL'horizon des événements est, en relativité restreinte et en relativité générale, constitué par la limite éventuelle de la région qui peut être influencée dans le futur par un observateur situé en un endroit donné à une époque donnée. Dans le cas d'un trou noir, en particulier, on peut définir son horizon des événements comme une surface qui l'entoure, d'où aucun objet, ni même un rayon de lumière ne peut jamais échapper au champ gravitationnel du trou noir.
ITERLe réacteur thermonucléaire expérimental international, ou ITER (acronyme de l'anglais International thermonuclear experimental reactor, également mot latin signifiant « chemin » ou « voie »), est un projet international de réacteur nucléaire de recherche civil à fusion nucléaire de type tokamak, situé à proximité immédiate du centre d’études nucléaires de Cadarache à Saint-Paul-lez-Durance (Bouches-du-Rhône, France). Le projet de recherche s'inscrit dans une démarche à long terme visant à l'industrialisation de la fusion nucléaire.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .