Caméra argentiqueUne caméra argentique est un appareil de prise de vues cinématographique (caméra) qui enregistre les photogrammes (images) des plans d'un film sur une pellicule photographique. Son utilisation était limitée aux domaines du cinéma et de la télévision. Elle est aujourd'hui supplantée par les caméras numériques et entrée dans le domaine muséologique. Le terme caméra est issu du latin camera qui signifie « chambre » en français. La camera obscura (« chambre noire ») est un dispositif optique, connu depuis l'Antiquité, qui permet la formation d'une image inversée d'une scène.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
DébruitageLe débruitage est une technique d'édition qui consiste à supprimer des éléments indésirables (« bruit »), afin de rendre un document, un signal (numérique ou analogique) ou un environnement plus intelligible ou plus pur. Ne pas confondre le débruitage avec la réduction de bruit. Sur le plan sonore, le débruitage consiste à réduire ou anéantir le rendu d'ondes sonores « parasites » (ou « bruit »).
Camérathumb|Arrière de la caméra argentique Mitchell BNC dotée en supplément sur le côté droit d'un enregistreur vidéo analogique, utilisée par Stanley Kubrick pour pouvoir rapidement monter un "brouillon" de son film Apocalypse Now lors du tournage, avant toute opération de montage sur la pellicule photographique même. Une caméra est un appareil de prise de vues destiné à enregistrer ou à transmettre des images photographiques successives afin de restituer l'impression de mouvement pour le cinéma, la télévision, la recherche, la télésurveillance, l'imagerie industrielle et , ou bien pour d'autres applications, professionnelles ou domestiques.
Quantifications canoniquesEn physique, la quantification canonique est une procédure pour quantifier une théorie classique, tout en essayant de préserver au maximum la structure formelle, comme les symétries, de la théorie classique. Historiquement, ce n'était pas tout à fait la voie de Werner Heisenberg pour obtenir la mécanique quantique, mais Paul Dirac l'a introduite dans sa thèse de doctorat de 1926, la «méthode de l'analogie classique» pour la quantification, et l'a détaillée dans son texte classique.
Multidimensional transformIn mathematical analysis and applications, multidimensional transforms are used to analyze the frequency content of signals in a domain of two or more dimensions. One of the more popular multidimensional transforms is the Fourier transform, which converts a signal from a time/space domain representation to a frequency domain representation. The discrete-domain multidimensional Fourier transform (FT) can be computed as follows: where F stands for the multidimensional Fourier transform, m stands for multidimensional dimension.
Seconde quantificationLa seconde quantification, aussi appelée quantification canonique, est une méthode de quantification des champs introduite par Dirac en 1927 pour l'électrodynamique quantique. Elle consiste à partir d'un champ classique tel que le champ électromagnétique, à le considérer comme un système physique et à remplacer les grandeurs classiques décrivant l'état du champ par un état quantique et des observables de la physique quantique. On aboutit naturellement à la conclusion que l'énergie du champ est quantifiée, chaque quantum représentant une particule.
Débit binaireLe débit binaire est une mesure de la quantité de données numériques transmises par unité de temps. Selon ses définitions normatives, il s'exprime en bits par seconde (bit/s, b/s ou bps) ou un de ses multiples en employant les préfixes du Système international (SI) : kb/s (kilobits par seconde), Mb/s (mégabits par seconde) et ainsi de suite. Dans le domaine de l'informatique, le débit est parfois exprimé en octets par seconde. Un octet équivaut à 8 bits, nombre de bits correspondant aux premières et aux plus simples des machines, et permettant de transmettre un caractère alphanumérique.
Code (information)vignette|redresse|Code morse international. En sciences et techniques, notamment en informatique et en théorie de l'information, un code est une règle de transcription qui, à tout symbole d'un jeu de caractères (alphabet source) assigne de manière univoque un caractère ou une chaîne de caractères pris dans un jeu de caractères éventuellement différent (alphabet cible). Un exemple est le code morse qui établit une relation entre lettres de l'alphabet latin et des séquences de sons courts et longs.
Théorème du codage de sourceLe théorème du codage de source (ou premier théorème de Shannon, ou encore théorème de codage sans bruit) est un théorème en théorie de l'information, énoncé par Claude Shannon en 1948, qui énonce la limite théorique pour la compression d'une source. Le théorème montre que l'on ne peut pas compresser une chaine de variables aléatoires i.i.d, quand la longueur de celle-ci tend vers l'infini, de telle sorte à ce que la longueur moyenne des codes des variables soit inférieure à l'entropie de la variable source.