Évolution (biologie)En biologie, l’évolution est la transformation du monde vivant au cours du temps, qui se manifeste par des changements phénotypiques des organismes à travers les générations. Ces changements généralement graduels (mais pouvant être rapides ou lents) peuvent aboutir, à partir d’une seule espèce (dite « espèce-mère »), à la formation de nouvelles variétés périphériques devenant progressivement des « espèces-filles ». Inversement, la fusion de deux lignées par hybridation ou par symbiogenèse entre deux populations d'espèces différentes peuvent produire une troisième espèce nouvelle.
Transition de phasevignette|droite|Noms exclusifs des transitions de phase en thermodynamique. En physique, une transition de phase est la transformation physique d'un système d'une phase vers une autre, induite par la variation d'un paramètre de contrôle externe (température, champ magnétique...). Une telle transition se produit lorsque ce paramètre externe atteint une valeur seuil (ou valeur « critique »). La transformation traduit généralement un changement des propriétés de symétrie du système.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).
Convergence évolutiveLa (ou évolution convergente) est le résultat de mécanismes évolutifs ayant conduit des espèces, soumises aux mêmes contraintes environnementales (niches écologiques similaires), à adopter indépendamment plusieurs traits physiologiques, morphologiques, parfois comportementaux semblables. Plus généralement, ce terme, en seconde position, s’applique aussi à l’évolution d’autres systèmes adaptatifs comme les groupes humains ou les civilisations.
Matrice densitéEn physique quantique, la matrice densité, souvent représentée par , est un objet mathématique introduit par le mathématicien et physicien John von Neumann permettant de décrire l'état d'un système physique. Elle constitue une généralisation de la formulation d'un état physique à l'aide d'un ket , en permettant de décrire des états plus généraux, appelés mélanges statistiques, que la précédente formulation ne permettait pas de décrire.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Principe d'entropie maximaleLe principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. De toutes ces distributions, c'est en effet celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser.
Taux de natalitéLe taux de natalité (ou taux brut de natalité) est le rapport entre le nombre annuel de naissances vivantes et la population totale moyenne sur une période et dans un territoire donné. Il s'exprime souvent en pour mille (‰). TN s'exprime habituellement en ‰ (pour mille). Le taux de natalité se calcule : n est le nombre de naissances par année et p est la population totale moyenne au cours de la même année, souvent estimée comme la moyenne des effectifs de cette population en début et en fin d'année.
Configuration entropyIn statistical mechanics, configuration entropy is the portion of a system's entropy that is related to discrete representative positions of its constituent particles. For example, it may refer to the number of ways that atoms or molecules pack together in a mixture, alloy or glass, the number of conformations of a molecule, or the number of spin configurations in a magnet. The name might suggest that it relates to all possible configurations or particle positions of a system, excluding the entropy of their velocity or momentum, but that usage rarely occurs.