Concatenated error correction codeIn coding theory, concatenated codes form a class of error-correcting codes that are derived by combining an inner code and an outer code. They were conceived in 1966 by Dave Forney as a solution to the problem of finding a code that has both exponentially decreasing error probability with increasing block length and polynomial-time decoding complexity. Concatenated codes became widely used in space communications in the 1970s.
Statistical mechanicsIn physics, statistical mechanics is a mathematical framework that applies statistical methods and probability theory to large assemblies of microscopic entities. It does not assume or postulate any natural laws, but explains the macroscopic behavior of nature from the behavior of such ensembles. Sometimes called statistical physics or statistical thermodynamics, its applications include many problems in the fields of physics, biology, chemistry, and neuroscience.
Code cycliqueEn mathématiques et en informatique, un code cyclique est un code correcteur linéaire. Ce type de code possède non seulement la capacité de détecter les erreurs, mais aussi de les corriger sous réserve d'altérations modérées. Les mathématiques sous-jacentes se fondent sur la théorie des corps finis, et en particulier les extensions de Galois ainsi que les polynômes. Les codes cycliques, encore appelés contrôles de redondance cyclique (CRC), correspondent à une large famille de codes, on peut citer par exemple le code de Hamming, les codes BCH ou le code de Reed-Solomon.
Systematic codeIn coding theory, a systematic code is any error-correcting code in which the input data is embedded in the encoded output. Conversely, in a non-systematic code the output does not contain the input symbols. Systematic codes have the advantage that the parity data can simply be appended to the source block, and receivers do not need to recover the original source symbols if received correctly – this is useful for example if error-correction coding is combined with a hash function for quickly determining the correctness of the received source symbols, or in cases where errors occur in erasures and a received symbol is thus always correct.
Ensemble canoniqueEn physique statistique, l’ensemble (ou situation) canonique est un ensemble statistique introduit par le physicien américain Josiah Willard Gibbs. Il correspond au cas d'un système physique de volume donné et contenant un nombre fixe de particules, en interaction avec un autre système, appelé réservoir ou thermostat, beaucoup plus grand que le système considéré et avec lequel il peut échanger de l'énergie mais pas de matière. Le thermostat se comporte comme un réservoir supposé infini d'énergie, la réunion des deux systèmes étant considérée comme isolée.
AverageIn ordinary language, an average is a single number taken as representative of a list of numbers, usually the sum of the numbers divided by how many numbers are in the list (the arithmetic mean). For example, the average of the numbers 2, 3, 4, 7, and 9 (summing to 25) is 5. Depending on the context, an average might be another statistic such as the median, or mode. For example, the average personal income is often given as the median—the number below which are 50% of personal incomes and above which are 50% of personal incomes—because the mean would be higher by including personal incomes from a few billionaires.
Orthogonal frequency-division multiplexingL’OFDM (orthogonal frequency-division multiplexing) est un procédé de codage de signaux numériques par répartition en fréquences orthogonales sous forme de multiples sous-porteuses. Cette technique permet de lutter contre les canaux sélectifs en fréquence en permettant une égalisation de faible complexité. Ces canaux se manifestent notamment en présence de trajets multiples et sont d'autant plus pénalisants que le débit de transmission est élevé.
Physique numériqueLa physique numérique (ou parfois physique informatique) est l'étude et l'implémentation d'algorithmes numériques dans le but de résoudre des problèmes physiques pour lesquels une théorie existe déjà. Elle est souvent considérée comme une sous-discipline de la physique théorique mais certains la considèrent comme une branche intermédiaire entre la physique théorique et la physique expérimentale. En général, les physiciens définissent un système et son évolution grâce à des formules mathématiques précises.
Code de répétitionLe code de répétition est une solution simple pour se prémunir des erreurs de communication dues au bruit dans un canal binaire symétrique. C'est une technique de codage de canal, c'est-à-dire un code correcteur. Il s'agit d'envoyer plusieurs copies de chaque bit à être transmis. Autrement dit, ce code de répétition encode la transmission des bits ainsi (sur trois bits) : La première chaîne de caractères est appelée le 0 logique et la deuxième, le 1 logique puisqu'elles jouent le rôle de 0 et 1 respectivement.
Théorie des codesEn théorie de l'information, la théorie des codes traite des codes et de leurs propriétés et de leurs aptitudes à servir sur différents canaux de communication. On distingue deux modèles de communication : avec et sans bruit. Sans bruit, le codage de source suffit à la communication. Avec bruit, la communication est possible avec les codes correcteurs. En définissant l'information de façon mathématique, l'étape fondatrice de la théorie des codes a été franchie par Claude Shannon.