Théorème du codage de canalEn théorie de l'information, le théorème du codage de canal aussi appelé deuxième théorème de Shannon montre qu'il est possible de transmettre des données numériques sur un canal bruité avec un taux d'erreur arbitrairement faible si le débit est inférieur à une certaine limite propre au canal. Ce résultat publié par Claude Shannon en 1948 est fondé sur des travaux antérieurs de Harry Nyquist et Ralph Hartley. La première preuve rigoureuse fut établie par Amiel Feinstein en 1954.
Transmission de donnéesLa transmission de données désigne le transport de données, quel que soit le type d'information, d'un endroit vers un autre, par un moyen physique ou numérique. Historiquement, La transmission se faisait par signaux visuels (tel que la fumée ou les sémaphores), sonores (comme le langage sifflé des Canaries), courrier papier avant d'utiliser des signaux numériques comme le code Morse sur des fils en cuivre.
Décalage de Bernoulli (mathématiques)Le décalage de Bernoulli (également connu comme fonction dyadique ou fonction 2x mod 1) est l'application produite par la règle De façon équivalente, le décalage de Bernoulli peut également être défini comme la fonction itérée de la fonction affine par parties Le décalage de Bernoulli fournit un exemple de la manière dont une simple fonction unidimensionnelle peut mener au chaos. Si x0 est rationnel, l'image de x0 contient un nombre fini de valeurs différentes dans [0 ; 1] et l'orbite positive de x0 est périodique à partir d'un certain point, avec la même période que le développement binaire de x0.
Capacité d'un canalLa capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
NumériqueOn dit numérique une information qui se présente sous forme de nombres associés à une indication de la grandeur physique à laquelle ils s'appliquent, permettant les calculs, les statistiques, la vérification des modèles mathématiques. Numérique s'oppose en ce sens à « analogique » et, pour le calcul, à « algébrique ». On a pris l'habitude de désigner comme numériques les données informatiques. Elles sont traitées par les ordinateurs, développés depuis la seconde moitié du à partir de machines à calculer programmables.
Binary erasure channelIn coding theory and information theory, a binary erasure channel (BEC) is a communications channel model. A transmitter sends a bit (a zero or a one), and the receiver either receives the bit correctly, or with some probability receives a message that the bit was not received ("erased") . A binary erasure channel with erasure probability is a channel with binary input, ternary output, and probability of erasure . That is, let be the transmitted random variable with alphabet .
Signal logiqueUn signal logique est un signal physique qui ne peut prendre que 2 valeurs, un niveau haut (en anglais "high" = "H"), et un niveau bas (en anglais "low" = "L"). Dans les ordinateurs et d'autres systèmes numériques, une forme d'onde qui alterne entre deux niveaux de tension représentant les deux états d'une valeur booléenne (0 et 1) est désigné comme un signal logique. Pour tout ce qui concerne la logique combinatoire ces deux niveaux suffisent.
Bruit additif blanc gaussienLe bruit additif blanc gaussien est un modèle élémentaire de bruit utilisé en théorie de l'information pour imiter de nombreux processus aléatoires qui se produisent dans la nature. Les adjectifs indiquent qu'il est : additif il s'ajoute au bruit intrinsèque du système d'information ; blanc sa puissance est uniforme sur toute la largeur de bande de fréquences du système, par opposition avec un bruit coloré qui privilégie une bande de fréquences par analogie avec une lumière colorée dans le spectre visible ; gaussien il a une distribution normale dans le domaine temporel avec une moyenne nulle (voir bruit gaussien).
Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.