En théorie de l'information, le théorème de Shannon-Hartley indique le débit maximal auquel l'information peut être transmise sur un canal de communication d'une bande passante spécifiée en présence de bruit. Il s'agit d'une application du théorème du codage de canal au cas archétypal du canal de communication analogique à temps continu soumis à un bruit gaussien. Le théorème établit la capacité du canal de Shannon pour un tel lien de communication, une limite sur la quantité maximale d'information sans erreur par unité de temps qui peut être transmise avec une bande passante spécifiée en présence de l'interférence du bruit, en supposant que la puissance du signal est limitée, et que le processus de bruit gaussien est caractérisé par une puissance ou une densité spectrale de puissance connue. La loi est nommée d'après Claude Shannon et Ralph Hartley.
Le théorème de Shannon-Hartley énonce la capacité du canal , c'est-à-dire la limite supérieure théorique la plus étroite du débit d'information des données qui peuvent être communiquées à un taux d'erreur arbitrairement bas en utilisant une puissance moyenne du signal reçu par un canal de communication analogique soumis à un bruit additif blanc gaussien (AWGN) de puissance :
où
est la capacité du canal en bits par seconde, une limite supérieure théorique du débit binaire net (débit d'information, parfois noté ) hors codes de correction d'erreurs ;
est la largeur de bande du canal en hertz (largeur passe-bande dans le cas d'un signal passe-bande) ;
est la puissance moyenne du signal reçu sur la largeur de bande (dans le cas d'une transmission en bande passante à modulation de porteuse, souvent désignée par ), mesurée en watts (ou en volts carré) ;
est la puissance moyenne du bruit et des interférences sur la bande passante, mesurée en watts (ou en volts carré) ; et
est le rapport signal/bruit (SNR) ou le (CNR) du signal de communication par rapport au bruit et à l'interférence au niveau du récepteur (exprimé sous forme de rapport de puissance linéaire, et non de décibels logarithmique).
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Dans un canal de communication utilisant une méthode de transmission par éléments temporels discrets, dont les canaux de communication numériques, la rapidité de modulation, aussi appelée « vitesse de modulation », est l'inverse de la plus courte durée théorique de l'élément de signal. Dans la plupart des canaux numériques, les éléments de signal ou symboles sont de durée égale, et la rapidité de modulation est le nombre de moments élémentaires de signal par unité de temps.
Le débit binaire est une mesure de la quantité de données numériques transmises par unité de temps. Selon ses définitions normatives, il s'exprime en bits par seconde (bit/s, b/s ou bps) ou un de ses multiples en employant les préfixes du Système international (SI) : kb/s (kilobits par seconde), Mb/s (mégabits par seconde) et ainsi de suite. Dans le domaine de l'informatique, le débit est parfois exprimé en octets par seconde. Un octet équivaut à 8 bits, nombre de bits correspondant aux premières et aux plus simples des machines, et permettant de transmettre un caractère alphanumérique.
En transmissions numériques, l'efficacité spectrale η se définit comme étant le rapport entre le débit binaire (en bit/s) et la bande passante (en Hz). Nous pouvons aussi dire que c'est le nombre de données binaires envoyés sur le canal de communication par ressource temps-fréquence (par accès au canal ou channel use). L'efficacité spectrale d'une modulation se définit par le paramètre : η = D/B et s'exprime en "bit par seconde et par hertz". La valeur D est le débit binaire (en bit/s) et B (en Hz) est la largeur de la bande occupée par le signal modulé.
This course is on the foundations of digital communication. The focus is on the transmission problem (rather than being on source coding).
The mathematical principles of communication that govern the compression and transmission of data and the design of efficient methods of doing so.
Students extend their knowledge on wireless communication systems to spread-spectrum communication and to multi-antenna systems. They also learn about the basic information theoretic concepts, about c
Couvre les concepts de communication de base, le taux de symbole, le débit binaire, la capacité du canal, le théorème de codage du canal de Shannon et l'évaluation des performances du système.
Commitment is a key primitive which resides at the heart of several cryptographic protocols. Noisy channels can help realize information-theoretically secure commitment schemes; however, their imprecise statistical characterization can severely impair such ...
2023
,
We study the hitting probabilities of the solution to a system of d stochastic heat equations with additive noise subject to Dirichlet boundary conditions. We show that for any bounded Borel set with positive (d-6)\documentclass[12pt]{minimal} \usepackage{ ...
Springer/Plenum Publishers2024
, ,
This paper investigates the effect of combination policies on the performance of adaptive social learning in non-stationary environments. By analyzing the relation between the error probability and the underlying graph topology, we prove that in the slow a ...