Codage des caractèresvignette|alt=Carte rectangulaire beige clair avec dans le sens de la longueur 10 lignes constituées chacune d'une suite de chiffre identique, de 1 à 10. Des perforations verticales font disparaître certains de ces chiffres|Carte perforée à 80 colonnes, sur laquelle est codé le texte de programmation « CALL RCLASS (AAA, 21, NNC, PX3, PX4) ».
MPEG-1MPEG-1 est une norme de compression vidéo et audio définie par la norme ISO/CEI-11172, élaborée par le groupe MPEG en 1988. Ce groupe a pour but de développer des standards internationaux de compression, décompression, traitement et codage d'images animées et de données audio. La norme MPEG-1 représente chaque image comme un ensemble de blocs 16 × 16. Elle permet d'obtenir une définition de : 352× à 30 images par seconde en NTSC 352× à 25 images par seconde en PAL/SECAM MPEG-1 permet d'obtenir des débits de l'ordre de 1,2 Mbit/s (exploitable sur un lecteur de CD-ROM).
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Dependent and independent variablesDependent and independent variables are variables in mathematical modeling, statistical modeling and experimental sciences. Dependent variables are studied under the supposition or demand that they depend, by some law or rule (e.g., by a mathematical function), on the values of other variables. Independent variables, in turn, are not seen as depending on any other variable in the scope of the experiment in question. In this sense, some common independent variables are time, space, density, mass, fluid flow rate, and previous values of some observed value of interest (e.
Signalisation (télécommunication)En télécommunication, la signalisation peut désigner : l'utilisation de signaux pour contrôler des communications L'échange d'information permettant l'établissement et le contrôle d'un circuit de télécommunication et la gestion du réseau, en opposition avec le transfert de données utilisateurs. L'envoi d'un signal par une terminaison en émission d'un circuit de télécommunication pour informer un utilisateur situé sur la terminaison en réception qu'un message doit être envoyé.
Enregistrement binauralvignette|Microphone binaural Le binaural est une des méthodes d'enregistrement cherchant à reproduire la perception sonore naturelle humaine et ce, par restitution au casque. Le principe est d'envoyer à chaque oreille un son le plus similaire possible à celui que reçoivent les oreilles quand elles écoutent une scène sonore naturelle. Cela implique d'enregistrer avec une tête artificielle et la restitution du son par un casque, car la restitution par haut-parleur introduit inévitablement une diaphonie détruisant l'effet binaural, ce qui n'a pas lieu avec un casque.
Synthèse vocaleLa synthèse vocale est une technique informatique de synthèse sonore qui permet de créer de la parole artificielle à partir de n'importe quel texte. Pour obtenir ce résultat, elle s'appuie à la fois sur des techniques de traitement linguistique, notamment pour transformer le texte orthographique en une version phonétique prononçable sans ambiguïté, et sur des techniques de traitement du signal pour transformer cette version phonétique en son numérisé écoutable sur un haut parleur.
Dimension fractaleEn géométrie fractale, la dimension fractale, D, est une grandeur qui a vocation à traduire la façon qu'a un ensemble fractal de remplir l'espace, à toutes les échelles. Dans le cas des fractales, elle est non entière et supérieure à la dimension topologique. Ce terme est un terme générique qui recouvre plusieurs définitions. Chacune peut donner des résultats différents selon l'ensemble considéré, il est donc essentiel de mentionner la définition utilisée lorsqu'on valorise la dimension fractale d'un ensemble.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Asymétrie d'informationUne asymétrie d'information est une situation où, sur un marché, les agents économiques qui contractent ou échangent ne sont pas sur un pied d'égalité en termes d'informations, l'un des deux agents détenant une information que l'autre n'a pas. La présence d'asymétries d'information conduit à des problèmes d'anti-sélection et de risque moral. Ils sont notamment étudiés dans le cadre de la théorie des contrats et de la théorie des mécanismes d'incitation.