Codage de HuffmanLe codage de Huffman est un algorithme de compression de données sans perte. Le codage de Huffman utilise un code à longueur variable pour représenter un symbole de la source (par exemple un caractère dans un fichier). Le code est déterminé à partir d'une estimation des probabilités d'apparition des symboles de source, un code court étant associé aux symboles de source les plus fréquents. Un code de Huffman est optimal au sens de la plus courte longueur pour un codage par symbole, et une distribution de probabilité connue.
Vidéo CDLe Vidéo CD ou VCD est un format vidéo exploitant le support disque compact (CD). Tout disque vidéo CD peut être lu sur un lecteur compatible ou sur certains ordinateurs personnels (PC), ainsi que sur certains lecteurs DVD de salon. Le standard VCD est créé en 1993 par le japonais Sony, le néerlandais Philips ainsi que les japonais Matsushita et JVC. Ses spécifications sont décrites dans le White Book. Un précédent standard (le Green Book) avait été défini par Philips pour le CD-i Digital Vidéo.
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
Théorème du codage de sourceLe théorème du codage de source (ou premier théorème de Shannon, ou encore théorème de codage sans bruit) est un théorème en théorie de l'information, énoncé par Claude Shannon en 1948, qui énonce la limite théorique pour la compression d'une source. Le théorème montre que l'on ne peut pas compresser une chaine de variables aléatoires i.i.d, quand la longueur de celle-ci tend vers l'infini, de telle sorte à ce que la longueur moyenne des codes des variables soit inférieure à l'entropie de la variable source.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Gamme dynamiqueLa gamme dynamique, ou plage dynamique ou simplement dynamique est le rapport de la plus grande à la plus petite valeur d'une grandeur. Cette grandeur peut caractériser l'intensité d'un son ou d'une lumière. Elle est mesurée par une valeur logarithmique en base 10 (décibels) ou en base 2 (bits ou « diaphs »). En photographie, le terme décrit le rapport entre l'intensité lumineuse la plus élevée et l'intensité la plus faible qu'un appareil photographique peut capturer.
Taux de natalitéLe taux de natalité (ou taux brut de natalité) est le rapport entre le nombre annuel de naissances vivantes et la population totale moyenne sur une période et dans un territoire donné. Il s'exprime souvent en pour mille (‰). TN s'exprime habituellement en ‰ (pour mille). Le taux de natalité se calcule : n est le nombre de naissances par année et p est la population totale moyenne au cours de la même année, souvent estimée comme la moyenne des effectifs de cette population en début et en fin d'année.
Flash VideoFlash Video (de l'anglais signifiant littéralement « vidéo Flash »), couramment abrégé sous le sigle FLV, est un format de fichier utilisé sur Internet pour diffuser des vidéos via le lecteur Adobe Flash Player versions 6, 7, 8, 9 et 10, de manière à pouvoir l'incorporer aux animations Flash. Ce format est notamment utilisé par les sites de partage de vidéos sur Internet. C'est un format conteneur (voir les détails techniques ci-dessous). Type d'encodage dans le Flash Video et le format de fichier de base ISO : Video H.
Asymétrie d'informationUne asymétrie d'information est une situation où, sur un marché, les agents économiques qui contractent ou échangent ne sont pas sur un pied d'égalité en termes d'informations, l'un des deux agents détenant une information que l'autre n'a pas. La présence d'asymétries d'information conduit à des problèmes d'anti-sélection et de risque moral. Ils sont notamment étudiés dans le cadre de la théorie des contrats et de la théorie des mécanismes d'incitation.
Codes de parité à faible densitéDans la théorie de l'information, un contrôle de parité de faible densité LDPC est un code linéaire correcteur d'erreur, permettant la transmission d'information sur un canal de transmission bruité. LDPC est construit en utilisant un graphe biparti clairsemé. Les codes LDPC ont une capacité approchant la limite théorique. À l'aide de techniques itératives de propagation d'information sur la donnée transmise et à décoder, les codes LDPC peuvent être décodés en un temps proportionnel à leur longueur de bloc.