Taux de natalitéLe taux de natalité (ou taux brut de natalité) est le rapport entre le nombre annuel de naissances vivantes et la population totale moyenne sur une période et dans un territoire donné. Il s'exprime souvent en pour mille (‰). TN s'exprime habituellement en ‰ (pour mille). Le taux de natalité se calcule : n est le nombre de naissances par année et p est la population totale moyenne au cours de la même année, souvent estimée comme la moyenne des effectifs de cette population en début et en fin d'année.
Taux de féconditéLe taux de fécondité peut se définir comme le rapport des naissances vivantes durant une période, généralement l'année, à un effectif convenable de femmes (par exemple les 15-50 ans, ou pour chaque âge). L'indice synthétique de fécondité est la somme des taux de fécondité générale par âge durant une période. Il est en pratique synonyme d'indicateur conjoncturel de fécondité ou nombre moyen d'enfants par femme. Ce terme se distingue du taux de natalité, qui correspond au nombre annuel de naissances divisé par la population totale de cette année.
Linear network codingIn computer networking, linear network coding is a program in which intermediate nodes transmit data from source nodes to sink nodes by means of linear combinations. Linear network coding may be used to improve a network's throughput, efficiency, and scalability, as well as reducing attacks and eavesdropping. The nodes of a network take several packets and combine for transmission. This process may be used to attain the maximum possible information flow in a network.
Théorie des codesEn théorie de l'information, la théorie des codes traite des codes et de leurs propriétés et de leurs aptitudes à servir sur différents canaux de communication. On distingue deux modèles de communication : avec et sans bruit. Sans bruit, le codage de source suffit à la communication. Avec bruit, la communication est possible avec les codes correcteurs. En définissant l'information de façon mathématique, l'étape fondatrice de la théorie des codes a été franchie par Claude Shannon.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Codage de HuffmanLe codage de Huffman est un algorithme de compression de données sans perte. Le codage de Huffman utilise un code à longueur variable pour représenter un symbole de la source (par exemple un caractère dans un fichier). Le code est déterminé à partir d'une estimation des probabilités d'apparition des symboles de source, un code court étant associé aux symboles de source les plus fréquents. Un code de Huffman est optimal au sens de la plus courte longueur pour un codage par symbole, et une distribution de probabilité connue.
Taux de mutationEn génétique le taux de mutation désigne la quantité de changement de l'information génétique au cours du temps. réplication de l'ADN, le complexe d'enzymes chargé de sa copie, l'ADN polymérase, laisse passer un certain nombre d'erreurs. À une grande échelle de temps, l'information génétique évolue en fonction de ces changements. Notamment, l'information codant l'ADN polymérase elle-même évolue en conséquence, ce qui rend ce taux de mutation variable entre les espèces et sur plusieurs centaines de milliers d'années.
Code (information)vignette|redresse|Code morse international. En sciences et techniques, notamment en informatique et en théorie de l'information, un code est une règle de transcription qui, à tout symbole d'un jeu de caractères (alphabet source) assigne de manière univoque un caractère ou une chaîne de caractères pris dans un jeu de caractères éventuellement différent (alphabet cible). Un exemple est le code morse qui établit une relation entre lettres de l'alphabet latin et des séquences de sons courts et longs.
Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.
Theory of descriptionsThe theory of descriptions is the philosopher Bertrand Russell's most significant contribution to the philosophy of language. It is also known as Russell's theory of descriptions (commonly abbreviated as RTD). In short, Russell argued that the syntactic form of descriptions (phrases that took the form of "The aardvark" and "An aardvark") is misleading, as it does not correlate their logical and/or semantic architecture.