Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Convention internationale sur l'élimination de toutes les formes de discrimination racialeLa Convention internationale sur l'élimination de toutes les formes de discrimination raciale est une convention des Nations unies, entrée en vigueur le . Cette convention engage ses signataires à supprimer toute discrimination raciale, ségrégation raciale ou apartheid et à promouvoir la compréhension entre tous les peuples. Adoptée par l'Assemblée générale des Nations unies, elle a été ouverte à la signature des États le et est entrée en vigueur le . À ce jour, 182 pays ont ratifié cette convention.
Majorant ou minorantEn mathématiques, soient (E , ≤) un ensemble ordonné et F une partie de E ; un élément x de E est : un majorant de F s'il est supérieur ou égal, par la relation binaire définie au préalable, à tous les éléments de F : ; un minorant de F s'il est inférieur ou égal, par la relation binaire définie au préalable, à tous les éléments de F :. Si F possède un majorant x alors on dit que F est une partie majorée. Si F possède un minorant x alors on dit que F est une partie minorée.
Entropy as an arrow of timeEntropy is one of the few quantities in the physical sciences that require a particular direction for time, sometimes called an arrow of time. As one goes "forward" in time, the second law of thermodynamics says, the entropy of an isolated system can increase, but not decrease. Thus, entropy measurement is a way of distinguishing the past from the future. In thermodynamic systems that are not isolated, local entropy can decrease over time, accompanied by a compensating entropy increase in the surroundings; examples include objects undergoing cooling, living systems, and the formation of typical crystals.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).
Propriété de la borne supérieureEn mathématiques, un ensemble ordonné est dit posséder la propriété de la borne supérieure si tous ses sous-ensembles non vides et majorés possèdent une borne supérieure. De même, un ensemble ordonné possède la propriété de la borne inférieure si tous ses sous-ensembles non vides et minorés possèdent une borne inférieure. Il s'avère que ces deux propriétés sont équivalentes. On dit aussi parfois qu'un ensemble possédant la propriété de la borne supérieure est Dedekind complet. Soit un ensemble ordonné (partiellement ou totalement).