Discrete wavelet transformIn numerical analysis and functional analysis, a discrete wavelet transform (DWT) is any wavelet transform for which the wavelets are discretely sampled. As with other wavelet transforms, a key advantage it has over Fourier transforms is temporal resolution: it captures both frequency and location information (location in time). Haar wavelet The first DWT was invented by Hungarian mathematician Alfréd Haar. For an input represented by a list of numbers, the Haar wavelet transform may be considered to pair up input values, storing the difference and passing the sum.
Codecalt=Codec MPEG-4 utilisé par VLC|vignette|Symbole graphique du codec MPEG-4 utilisé par VLC Un codec est un dispositif matériel ou logiciel permettant de mettre en œuvre l'encodage ou le décodage d'un flux de données numérique, en vue d'une transmission ou d'un stockage. Certains codec intègrent également une fonction de compression ou encore de chiffrement des données. L'acronyme « codec » vient de « codeur décodeur » (coder-decoder en anglais). Il est important de bien distinguer les notions de codec, de norme et de format conteneur.
Complexité de KolmogorovEn informatique théorique et en mathématiques, plus précisément en théorie de l'information, la complexité de Kolmogorov, ou complexité aléatoire, ou complexité algorithmique d'un objet — nombre, , chaîne de caractères — est la taille du plus petit algorithme (dans un certain langage de programmation fixé) qui engendre cet objet. Elle est nommée d'après le mathématicien Andreï Kolmogorov, qui publia sur le sujet dès 1963. Elle est aussi parfois nommée complexité de Kolmogorov-Solomonoff.
Ondelettethumb|Ondelette de Daubechies d'ordre 2. Une ondelette est une fonction à la base de la décomposition en ondelettes, décomposition similaire à la transformée de Fourier à court terme, utilisée dans le traitement du signal. Elle correspond à l'idée intuitive d'une fonction correspondant à une petite oscillation, d'où son nom. Cependant, elle comporte deux différences majeures avec la transformée de Fourier à court terme : elle peut mettre en œuvre une base différente, non forcément sinusoïdale ; il existe une relation entre la largeur de l'enveloppe et la fréquence des oscillations : on effectue ainsi une homothétie de l'ondelette, et non seulement de l'oscillation.
Variable bitrateVariable bitrate (ou Variable bit rate, ou encore VBR), est un terme anglais que l'on peut traduire en français par : « taux d'échantillonnage variable », en opposition au constant bitrate (CBR). Lors de la numérisation d'un signal, l'utilisation d'un taux (ou d'une fréquence) d'échantillonnage variable consiste à adapter le nombre d'échantillons prélevés sur le signal, à la complexité locale (ou instantanée) de celui-ci. Ceci s'oppose à la technique plus simple, Constant bit rate ou CBR, dans laquelle le taux d'échantillonnage est fixe.
Redondance (théorie de l'information)En théorie de l’information, la redondance correspond au nombre de bits nécessaires pour transmettre un message auquel on soustrait le nombre de bits correspondant aux informations réellement contenues dans ce même message. Officieusement, la redondance correspond à l’« espace » utilisé mais non occupé pour transmettre certaines données. La compression de données permet de réduire ou d’éliminer la redondance que l’utilisateur ne désire pas conserver, alors que les sommes de contrôle permettent d’ajouter une redondance souhaitée pour les besoins du code correcteur lorsque l’utilisateur communique sur un canal bruyant à capacité limitée.
Codage par plagesLe codage par plages ou codage par longueur de plage(appelé en anglais Run-Length Encoding/RLE) est un algorithme de compression de données sans perte qui repose sur l'idée de comprimer des plages de valeurs identiques en signalant le nombre de fois qu'une valeur donnée devrait être répétée. Considérons un ensemble de données contenant des plages de valeurs répétées comme suit. aaaabcccccd Cet ensemble pourrait être représenté ainsi par un système de codage par plages: a4b1c5d1 Dans cette représentation, des caractères ont été épargnés aux deux endroits dans l'ensemble où se trouvaient des caractères répétés.
Liste de logiciels de compression de donnéesThe following tables compare general and technical information for a number of s. Please see the individual products' articles for further information. They are neither all-inclusive nor are some entries necessarily up to date. Unless otherwise specified in the footnotes section, comparisons are based on the stable versions—without add-ons, extensions or external programs. Note: Archivers with names cell background highlighted in purple are no longer in development. Basic general information about the archivers.
JBIG2JBIG2 est un standard de pour les développé par le Joint Bi-level Image Experts Group (groupe conjoint d'experts des images binaires, en français). Ce standard permet au choix de avec ou sans perte. Selon le site web du groupe, en mode sans perte, l’algorithme JBIG2 produit des fichiers en moyenne trois à cinq fois plus petits que des fichiers compressés à l'aide de l’algorithme du Groupe 4, utilisé notamment dans les fax, et de deux à quatre fois plus petits que le JBIG, le précédent algorithme conçu par ce même groupe d'experts.
Prédiction par reconnaissance partielleLes algorithmes de prédiction par reconnaissance partielle (ou PPM pour Prediction by Partial Matching) constituent une famille d'algorithmes de compression de données sans perte, statistiques et adaptatifs inventée par John Cleary et Ian Witten en 1984. La prédiction par reconnaissance partielle se base sur une modélisation de contexte pour évaluer la probabilité d'apparition des différents symboles. Usuellement, le contexte est un ensemble de symboles déjà rencontrés dans la source de données (fichier, flux).