Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Streamingvignette|Une configuration de pour la télédiffusion. Le (du verbe anglais transitif , « transférer en mode continu »), flux, lecture en continu, lecture en transit, diffusion en continu ou diffusion en mode continu, est un procédé de diffusion d'un flux audio ou vidéo en « direct » ou en léger différé. Très utilisé sur Internet et sur les réseaux de téléphonie mobile, le permet la lecture d'un flux audio ou vidéo (cas de la vidéo à la demande) à mesure qu'il est diffusé.
Codage de HuffmanLe codage de Huffman est un algorithme de compression de données sans perte. Le codage de Huffman utilise un code à longueur variable pour représenter un symbole de la source (par exemple un caractère dans un fichier). Le code est déterminé à partir d'une estimation des probabilités d'apparition des symboles de source, un code court étant associé aux symboles de source les plus fréquents. Un code de Huffman est optimal au sens de la plus courte longueur pour un codage par symbole, et une distribution de probabilité connue.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Time–frequency representationA time–frequency representation (TFR) is a view of a signal (taken to be a function of time) represented over both time and frequency. Time–frequency analysis means analysis into the time–frequency domain provided by a TFR. This is achieved by using a formulation often called "Time–Frequency Distribution", abbreviated as TFD. TFRs are often complex-valued fields over time and frequency, where the modulus of the field represents either amplitude or "energy density" (the concentration of the root mean square over time and frequency), and the argument of the field represents phase.
Accès à Internet à très haut débitUn accès à Internet à très haut débit (ou THD) est un accès à Internet offrant un débit binaire supérieur à celui d'un accès haut débit, par exemple via réseau DSL ou fibre optique. Des débits crêtes de référence sont fixés par certaines autorités. Ils sont de en Europe, tout comme pour l'Arcep en France. Historiquement, l'Arcep publie aussi des statistiques pour les débit crêtes à . Pour les infrastructures filaires, le débit théorique d'un accès très haut débit est au minimum de dans le sens descendant (débit correspondant à un raccordement en réseau cuivre de en VDSL2) et peut atteindre jusqu'à .
Codage entropiqueLe codage entropique (ou codage statistique à longueur variable) est une méthode de codage de source sans pertes, dont le but est de transformer la représentation d'une source de données pour sa compression ou sa transmission sur un canal de communication. Les principaux types de codage entropique sont le codage de Huffman et le codage arithmétique. Le codage entropique utilise des statistiques sur la source pour construire un code, c'est-à-dire une application qui associe à une partie de la source un mot de code, dont la longueur dépend des propriétés statistiques de la source.
Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
Transmission de donnéesLa transmission de données désigne le transport de données, quel que soit le type d'information, d'un endroit vers un autre, par un moyen physique ou numérique. Historiquement, La transmission se faisait par signaux visuels (tel que la fumée ou les sémaphores), sonores (comme le langage sifflé des Canaries), courrier papier avant d'utiliser des signaux numériques comme le code Morse sur des fils en cuivre.
OggOgg est le nom du principal projet de la fondation Xiph.org dont le but est de proposer des formats et codecs multimédias ouverts, libres et dégagés de tout brevet. C’est aussi le nom du format de fichier conteneur proposé par ce même projet. L’extension .ogg est une des extensions possibles pour les fichiers au format Ogg. Par abus de langage, on appelle couramment « fichier Ogg » un fichier audio au format Ogg contenant des données audio compressées en Vorbis, l’un des codecs du projet Ogg. La fondation Xiph.