Code de Hamming (7,4)En théorie des codes, le Code de Hamming (7,4) est un code correcteur linéaire binaire de la famille des codes de Hamming. À travers un message de sept bits, il transfère quatre bits de données et trois bits de parité. Il permet la correction d'un bit erroné. Autrement dit, si, sur les sept bits transmis, l'un d'eux au plus est altéré (un « zéro » devient un « un » ou l'inverse), alors il existe un algorithme permettant de corriger l'erreur. Il fut introduit par Richard Hamming (1915-1998) en 1950 dans le cadre de son travail pour les laboratoires Bell.
Bruit additif blanc gaussienLe bruit additif blanc gaussien est un modèle élémentaire de bruit utilisé en théorie de l'information pour imiter de nombreux processus aléatoires qui se produisent dans la nature. Les adjectifs indiquent qu'il est : additif il s'ajoute au bruit intrinsèque du système d'information ; blanc sa puissance est uniforme sur toute la largeur de bande de fréquences du système, par opposition avec un bruit coloré qui privilégie une bande de fréquences par analogie avec une lumière colorée dans le spectre visible ; gaussien il a une distribution normale dans le domaine temporel avec une moyenne nulle (voir bruit gaussien).
Speech codingSpeech coding is an application of data compression to digital audio signals containing speech. Speech coding uses speech-specific parameter estimation using audio signal processing techniques to model the speech signal, combined with generic data compression algorithms to represent the resulting modeled parameters in a compact bitstream. Common applications of speech coding are mobile telephony and voice over IP (VoIP).
Bruit gaussienEn traitement du signal, un bruit gaussien est un bruit dont la densité de probabilité est une distribution gaussienne (loi normale). L'adjectif gaussien fait référence au mathématicien, astronome et physicien allemand Carl Friedrich Gauss. La densité de probabilité d'une variable aléatoire gaussienne est la fonction : où représente le niveau de gris, la valeur de gris moyenne et son écart type. Un cas particulier est le bruit blanc gaussien, dans lequel les valeurs à toute paire de temps sont identiquement distribuées et statistiquement indépendantes (et donc ).
H.264vignette|Le diagrame de ce système H.264, ou MPEG-4 AVC (Advanced Video Coding), ou MPEG-4 Part 10, est une norme de codage vidéo développée conjointement par l'UIT-T Q.6/SG16 Video Coding Experts Group (VCEG) ainsi que l'ISO/CEI Moving Picture Experts Group (MPEG) et est le produit d'un effort de partenariat connu sous le nom Joint Video Team (JVT). La norme UIT-T H.264 et la norme ISO/CEI MPEG-4 Part 10 (ISO/CEI 14496-10) sont techniquement identiques, et la technologie employée est aussi connue sous le nom AVC, pour Advanced Video Coding.
Code préfixeUn code préfixe (ou code instantané) est un code ayant la particularité de ne posséder aucun mot du code ayant pour préfixe un autre mot du code. Autrement dit, aucun mot du code (ou symbole) d'un code préfixe ne peut se prolonger pour donner un autre mot du code (ou symbole). C'est une propriété souvent recherchée pour les codes à longueur variable, afin de pouvoir les décoder lorsque plusieurs symboles sont concaténés les uns aux autres sans qu'il soit nécessaire d'utiliser des séparateurs (les séparateurs rendent préfixes des codes non préfixes).
Sub-band codingIn signal processing, sub-band coding (SBC) is any form of transform coding that breaks a signal into a number of different frequency bands, typically by using a fast Fourier transform, and encodes each one independently. This decomposition is often the first step in data compression for audio and video signals. SBC is the core technique used in many popular lossy audio compression algorithms including MP3. The simplest way to digitally encode audio signals is pulse-code modulation (PCM), which is used on audio CDs, DAT recordings, and so on.
Variété algébriqueUne variété algébrique est, de manière informelle, l'ensemble des racines communes d'un nombre fini de polynômes en plusieurs indéterminées. C'est l'objet d'étude de la géométrie algébrique. Les schémas sont des généralisations des variétés algébriques. Il y a deux points de vue (essentiellement équivalents) sur les variétés algébriques : elles peuvent être définies comme des schémas de type fini sur un corps (langage de Grothendieck), ou bien comme la restriction d'un tel schéma au sous-ensemble des points fermés.
Dimension de HausdorffEn mathématiques, et plus précisément en topologie, la dimension de Hausdorff d'un espace métrique (X,d) est un nombre réel positif ou nul, éventuellement l'infini. Introduite en 1918 par le mathématicien Felix Hausdorff, elle a été développée par Abram Besicovitch, c'est pourquoi elle est parfois appelée dimension de Hausdorff-Besicovitch. L'exemple le plus simple est l'espace euclidien de dimension (au sens des espaces vectoriels) égale à n (ou plus généralement un espace vectoriel réel de dimension n muni d'une distance associée à une norme) : sa dimension de Hausdorff d est aussi égale à n, dimension de l'espace vectoriel.
Dimension de Minkowski-BouligandEn géométrie fractale, la dimension de Minkowski-Bouligand, également appelée dimension de Minkowski, dimension box-counting ou capacité, est une manière de déterminer la dimension fractale d'un sous-ensemble S dans un espace euclidien ou, plus généralement, dans un espace métrique. Pour calculer cette dimension pour une fractale S, placer cette fractale dans un réseau carré et compter le nombre de cases nécessaires pour recouvrir l'ensemble. La dimension de Minkowski est calculée en observant comment ce nombre de cases évolue à mesure que le réseau s'affine à l'infini.