Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
LangageLe langage est la capacité d'exprimer une pensée et de communiquer au moyen d'un système de signes (vocaux, gestuel, graphiques, tactiles, olfactifs, etc.) doté d'une sémantique, et le plus souvent d'une syntaxe — mais ce n'est pas systématique (la cartographie est un exemple de langage non syntaxique). Fruit d'une acquisition, la langue est une des nombreuses manifestations du langage. Les langages sont constitués de signaux correspondant au support physique de l'information.
Mort d'une langueEn linguistique, la mort d'une langue survient quand disparaissent les d'une langue maternelle. Par extension, lextinction d'une langue est le stade où cette langue n'est plus connue, pas même comme langue seconde. D'autres termes proches sont le linguicide, c'est-à-dire la mort d'une langue pour des motifs naturels ou politiques et, plus rarement, la « glottophagie », phénomène où une langue peu parlée est absorbée ou remplacée par une autre, comptant des locuteurs plus nombreux.
Changement linguistiqueL'expression changement linguistique désigne la modification continue dans le temps des éléments et des structures de tous les domaines d’une langue. Il y a deux grandes catégories : des changements internes à une langue donnée et des changements externes. Les changements consistent en transformations, en ajouts et en éliminations d’éléments et de structures. Le changement linguistique est étudié par la linguistique historique, qui étudie la formation et l’évolution des langues en tant que processus qui se déroulent par des changements.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Entropie minEn probabilités et en théorie de l'information, l'entropie min d'une variable aléatoire discrète X prenant n valeurs ou sorties possibles 1... n associées au probabilités p1... pn est : La base du logarithme est juste une constante d'échelle. Pour avoir un résultat en bits, il faut utiliser le logarithme en base 2. Ainsi, une distribution a une entropie min d'au moins b bits si aucune sortie n'a une probabilité plus grande que 2-b. L'entropie min est toujours inférieure ou égale à l'entropie de Shannon; avec égalité si toutes les valeurs de X sont équiprobables.
Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .
Langue éteinteUne langue éteinte ou finie est une langue qui n'a plus de locuteurs natifs. Cela se produit généralement lorsqu'une langue est sujette à l' extinction linguistique et est directement remplacée par une autre langue, par exemple le copte remplacé par l'arabe et de nombreuses langues amérindiennes, remplacé par l'anglais, le français, l'espagnol et le portugais . Le terme « langue morte » se réfère aussi couramment à une langue plus ancienne qui a considérablement changé et a évolué vers un nouveau groupe linguistique autonome, dont le processus de séparation linguistique est maintenant terminé.
Critiques des théories de l'évolutionEn tant que théorie scientifique, la théorie darwinienne de l'évolution des espèces par sélection naturelle fait l'objet de diverses critiques. L'idée d'évolution biologique est souvent rejetée car elle s'oppose à une vision spirituelle de l'homme, en le présentant comme le simple résultat du hasard, obéissant uniquement à des lois mécaniques et matérielles, et non le résultat d'un dessein où l'homme pourrait trouver du sens, en particulier par des croyants qui refusent l'idée d'évolution par fidélité à certains textes sacrés comme la Torah, la Bible ou le Coran.