Distorsion (musique)vignette|droite|Pédale d'effet Turbo Distortion, fabriquée par l'entreprise Boss. La distorsion est un effet audio utilisé dans la création de sons saturés et distordus, en compressant les pics du signal audio d'un instrument de musique électronique et en y ajoutant des partiels acoustiques. Un effet par distorsion est également appelé, à tort, , et s'applique principalement aux guitares électriques, mais peut également s'appliquer aux instruments de nombreux genres de musiques électroniques et à la .
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
LZMALZMA, pour Lempel-Ziv-Markov chain algorithm, est un algorithme de compression de données sans perte en développement jusqu'à 2001 et utilisé dans le format 7z du programme 7-Zip, StuffitX et quelques autres archiveurs, ainsi que par les commandes dédiées à la compression de données, xz et lzma. Il utilise une compression avec dictionnaire assez similaire au LZ77 et offre un fort taux de compression (en général plus fort que le Bzip2) et une taille variable de dictionnaire de compression (jusqu'à ).
Graphics Interchange FormatLe Graphics Interchange Format (littéralement « format d'échange d'images »), plus connu sous l'acronyme GIF (prononcé en français : , ou ), est un format d' couramment utilisé sur Internet. Le format GIF a été mis au point en 1987 par le groupe CompuServe, dirigé par l'informaticien Steve Wilhite , pour permettre le téléchargement d'images en couleur. Ce format utilise l'algorithme de compression sans perte LZW, nettement plus efficace que l'algorithme RLE utilisé par la plupart des formats alors disponibles (PCX, ILBM puis BMP).
TranscodageLe transcodage, en vidéo ou en audio, est le fait de changer le format de codage d'un média (voir aussi codage et codec) d'une source pour traiter un média audio ou vidéo ou véhiculer un signal analogique ou numérique. Plus généralement, le terme transcodage est utilisé lorsque l'on change la manière de coder une information. À partir du XXe siècle avec l'apparition des technologiques de retransmission du son et de l'image telles que la radiodiffusion et la télévision, différentes normes et standards voient le jour dans de multiples parties du monde.
Photophone (appareil)Photophone est un mot introduit en 2002 pour désigner les téléphones mobiles dont le capteur permet de prendre des photos numériques de haute capables de concurrencer celles des appareils photographiques numériques compacts. Dans cette acception, la majorité des téléphones mobiles commercialisés actuellement, smartphones et téléphones mobiles basiques (excepté les produits d'entrée de gamme) correspondent à cette définition du photophone. thumb|Sony Ericsson K800i, l'un des premiers téléphones portables à être équipé d'un capteur de 3,2 mégapixels.
Théorème du codage de sourceLe théorème du codage de source (ou premier théorème de Shannon, ou encore théorème de codage sans bruit) est un théorème en théorie de l'information, énoncé par Claude Shannon en 1948, qui énonce la limite théorique pour la compression d'une source. Le théorème montre que l'on ne peut pas compresser une chaine de variables aléatoires i.i.d, quand la longueur de celle-ci tend vers l'infini, de telle sorte à ce que la longueur moyenne des codes des variables soit inférieure à l'entropie de la variable source.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Nyquist rateIn signal processing, the Nyquist rate, named after Harry Nyquist, is a value (in units of samples per second or hertz, Hz) equal to twice the highest frequency (bandwidth) of a given function or signal. When the function is digitized at a higher sample rate (see ), the resulting discrete-time sequence is said to be free of the distortion known as aliasing. Conversely, for a given sample-rate the corresponding Nyquist frequency in Hz is one-half the sample-rate.
Conditional independenceIn probability theory, conditional independence describes situations wherein an observation is irrelevant or redundant when evaluating the certainty of a hypothesis. Conditional independence is usually formulated in terms of conditional probability, as a special case where the probability of the hypothesis given the uninformative observation is equal to the probability without. If is the hypothesis, and and are observations, conditional independence can be stated as an equality: where is the probability of given both and .