Catégorie

Capacité d'un canal

Résumé
La capacité d'un canal, en génie électrique, en informatique et en théorie de l'information, est la limite supérieure étroite du débit auquel l'information peut être transmise de manière fiable sur un canal de communication. Suivant les termes du théorème de codage du canal bruyant, la capacité d'un canal donné est le débit d'information le plus élevé (en unités d'information par unité de temps) qui peut être atteint avec une probabilité d'erreur arbitrairement faible. La théorie de l'information, développée par Claude E. Shannon en 1948, définit la notion de capacité de canal et fournit un modèle mathématique permettant de la calculer. Le résultat clé stipule que la capacité du canal, telle que définie ci-dessus, est donnée par le débit maximum de l'information mutuelle entre l'entrée et la sortie du canal, où la maximisation se fait par rapport à la distribution de l'entrée. La notion de capacité du canal a été au cœur du développement des systèmes de communication modernes, filaires et sans fil, avec l'avènement de nouveaux mécanismes de codage de correction d'erreurs qui ont permis d'atteindre des performances très proches des limites promises par la capacité du canal. Bande passante Débit binaire Néguentropie Redondance Expéditeur, compression de données, récepteur Théorème de Shannon-Hartley Efficacité spectrale Throughput MIMO László Lovász (1979), « On the Shannon Capacity of a Graph », IEEE Transactions on Information Theory, IT-25 (1): 1–7, doi: 10.1109/tit.1979.1055985. Thomas M. Cover ; Joy A. Thomas (2006). « Chapter 7: Channel Capacity ». Elements of Information Theory (Second ed.). Wiley-Interscience. pp. 206–207. . Thomas M. Cover, Joy A. Thomas (2006). Elements of Information Theory. John Wiley & Sons, New York. . David Tse, Pramod Viswanath (2005), Fundamentals of Wireless Communication, Cambridge University Press, UK, . The Handbook of Electrical Engineering. Research & Education Association. 1996. p. D-149. . Catégorie:Théorie de l'information Catégorie:Théorie des télécommunications Catégori
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Concepts associés (25)
Entropy rate
In the mathematical theory of probability, the entropy rate or source information rate of a stochastic process is, informally, the time density of the average information in a stochastic process. For stochastic processes with a countable index, the entropy rate is the limit of the joint entropy of members of the process divided by , as tends to infinity: when the limit exists. An alternative, related quantity is: For strongly stationary stochastic processes, .
Divergence de Kullback-Leibler
En théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
F-divergence
In probability theory, an -divergence is a function that measures the difference between two probability distributions and . Many common divergences, such as KL-divergence, Hellinger distance, and total variation distance, are special cases of -divergence. These divergences were introduced by Alfréd Rényi in the same paper where he introduced the well-known Rényi entropy. He proved that these divergences decrease in Markov processes.
Afficher plus