Transmission de donnéesLa transmission de données désigne le transport de données, quel que soit le type d'information, d'un endroit vers un autre, par un moyen physique ou numérique. Historiquement, La transmission se faisait par signaux visuels (tel que la fumée ou les sémaphores), sonores (comme le langage sifflé des Canaries), courrier papier avant d'utiliser des signaux numériques comme le code Morse sur des fils en cuivre.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Récepteur radioUn récepteur radio, aussi appelé simplement radio ou poste de radio, est un appareil électronique destiné à capter, sélectionner et décoder les ondes radioélectriques émises par les émetteurs radio. La fonction de décodage consiste à extraire des ondes captées, les informations qui y ont été incorporées lors de l'émission : sons ou signaux numériques (RDS, DRM, DAB, signaux horaires). Le terme « radio » provient de la simplification de l'expression « récepteur d’émissions diffusées par ondes radiophoniques ».
Signal logiqueUn signal logique est un signal physique qui ne peut prendre que 2 valeurs, un niveau haut (en anglais "high" = "H"), et un niveau bas (en anglais "low" = "L"). Dans les ordinateurs et d'autres systèmes numériques, une forme d'onde qui alterne entre deux niveaux de tension représentant les deux états d'une valeur booléenne (0 et 1) est désigné comme un signal logique. Pour tout ce qui concerne la logique combinatoire ces deux niveaux suffisent.
Bruit additif blanc gaussienLe bruit additif blanc gaussien est un modèle élémentaire de bruit utilisé en théorie de l'information pour imiter de nombreux processus aléatoires qui se produisent dans la nature. Les adjectifs indiquent qu'il est : additif il s'ajoute au bruit intrinsèque du système d'information ; blanc sa puissance est uniforme sur toute la largeur de bande de fréquences du système, par opposition avec un bruit coloré qui privilégie une bande de fréquences par analogie avec une lumière colorée dans le spectre visible ; gaussien il a une distribution normale dans le domaine temporel avec une moyenne nulle (voir bruit gaussien).
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
NumériqueOn dit numérique une information qui se présente sous forme de nombres associés à une indication de la grandeur physique à laquelle ils s'appliquent, permettant les calculs, les statistiques, la vérification des modèles mathématiques. Numérique s'oppose en ce sens à « analogique » et, pour le calcul, à « algébrique ». On a pris l'habitude de désigner comme numériques les données informatiques. Elles sont traitées par les ordinateurs, développés depuis la seconde moitié du à partir de machines à calculer programmables.
Informationvignette|redresse=0.6|Pictogramme représentant une information. L’information est un de la discipline des sciences de l'information et de la communication (SIC). Au sens étymologique, l'« information » est ce qui donne une forme à l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire. Elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
Bruit gaussienEn traitement du signal, un bruit gaussien est un bruit dont la densité de probabilité est une distribution gaussienne (loi normale). L'adjectif gaussien fait référence au mathématicien, astronome et physicien allemand Carl Friedrich Gauss. La densité de probabilité d'une variable aléatoire gaussienne est la fonction : où représente le niveau de gris, la valeur de gris moyenne et son écart type. Un cas particulier est le bruit blanc gaussien, dans lequel les valeurs à toute paire de temps sont identiquement distribuées et statistiquement indépendantes (et donc ).
Théorème du codage de canalEn théorie de l'information, le théorème du codage de canal aussi appelé deuxième théorème de Shannon montre qu'il est possible de transmettre des données numériques sur un canal bruité avec un taux d'erreur arbitrairement faible si le débit est inférieur à une certaine limite propre au canal. Ce résultat publié par Claude Shannon en 1948 est fondé sur des travaux antérieurs de Harry Nyquist et Ralph Hartley. La première preuve rigoureuse fut établie par Amiel Feinstein en 1954.