Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Méthode scientifiqueLa méthode scientifique désigne l'ensemble des canons guidant ou devant guider le processus de production des connaissances scientifiques, qu'il s'agisse d'observations, d'expériences, de raisonnements, ou de calculs théoriques. Très souvent, le terme de « méthode » engage l'idée implicite de son unicité, tant auprès du grand public que de certains chercheurs, qui de surcroît la confondent parfois avec la seule méthode hypothético-déductive.
Entropie conjointevignette|Entropie conjointe. En théorie de l'information, l'entropie conjointe est une mesure d'entropie utilisée en théorie de l'information, qui mesure la quantité d'information contenue dans un système de deux variables aléatoires (ou plus de deux). Comme les autres entropies, l'entropie conjointe est mesurée en bits ou en nats, selon la base du logarithme utilisée. Si chaque paire d'états possibles des variables aléatoires ont une probabilité alors l'entropie conjointe de et est définie par : où est la fonction logarithme en base 2.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).
Population mondialeLa population mondiale est le nombre d'êtres humains vivant sur Terre à un instant donné. L’ONU l'estime à le . Elle avait été estimée à pour 2000, entre 1,55 et pour 1900, entre 0,813 et pour 1800 et entre 600 et d'habitants pour 1700. Cette augmentation de la population avec le temps tend cependant à ralentir avec une baisse mondiale de l'indice de fécondité, plus ou moins importante selon les pays. Le taux annuel de la croissance démographique de la population mondiale est tombé de 2,1 % au début des années 1960 à moins de 1 % en 2020.
MéthodologieLa méthodologie est l'étude de l'ensemble des méthodes scientifiques. Elle peut être considérée comme la science de la méthode, ou « méthode des méthodes » (comme il y a une métalinguistique ou linguistique des linguistiques et une métamathématique ou mathématique des mathématiques). Alors, la méthodologie est une classe de méthodes, une sorte de boîte à outils où chaque outil est une méthode de la même catégorie, comme il y a une méthodologie analytique du déterminisme causal et une méthodologie systémique finaliste de la téléologie.
Human population planningHuman population planning is the practice of managing the growth rate of a human population. The practice, traditionally referred to as population control, had historically been implemented mainly with the goal of increasing population growth, though from the 1950s to the 1980s, concerns about overpopulation and its effects on poverty, the environment and political stability led to efforts to reduce population growth rates in many countries.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Surpopulationthumb|upright=1.5|Taux de croissance de la population, 2018source : CIA thumb|200px|La densité de population est facteur de promiscuité (ici à Taipei) pouvant augmenter le risque épidémique et pandémique thumb|200px|L'empreinte écologique de l'urbanisation est l'un des facteurs en jeu dans les évaluations de la surpopulation (ici : New York, Manhattan) La surpopulation est un état démographique caractérisé par le fait que le nombre d'individus d'une espèce vivante excède la capacité de charge de son habitat, c'est-à-dire sa capacité à : fournir les ressources nécessaires pour assurer la pérennité de cette espèce ; réparer les agressions (pollutions, perturbation des régulations écologiques naturelles) infligées par cette espèce à son environnement.
Entropie conditionnelleEn théorie de l'information, l'entropie conditionnelle décrit la quantité d'information nécessaire pour connaitre le comportement d'une variable aléatoire , lorsque l'on connait exactement une variable aléatoire . On note l'entropie conditionnelle de sachant . On dit aussi parfois entropie de conditionnée par . Comme les autres entropies, elle se mesure généralement en bits. On peut introduire l'entropie conditionnelle de plusieurs façons, soit directement à partir des probabilités conditionnelles, soit en passant par l'entropie conjointe.