Préfixes du Système international d'unitésLes préfixes du Système international d'unités simplifient la manipulation des valeurs numériques de grandeurs physiques qui sont beaucoup plus petites ou beaucoup plus grandes que l'unité du Système international. Ces préfixes représentent des puissances de (), sauf déca- et déci- (10 et 1/10, soit et ) et hecto- et centi- (100 et 1/100, soit et ). Ces préfixes sont établis par le Bureau international des poids et mesures sous la forme de résolutions de ses conférences générales, qui se tiennent en général tous les quatre ans.
KelvinLe 'kelvin' (du nom de William Thomson, dit Lord Kelvin), de symbole K, est l'unité de base SI de température thermodynamique. Jusqu’au , le kelvin était défini comme la fraction 1/273,16 de la température thermodynamique du point triple de l'eau (), une variation de température d' étant équivalente à une variation d'. La nouvelle définition a pour objectif de respecter cette valeur, mais en l’ancrant sur une valeur fixée de la constante de Boltzmann.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Information contentIn information theory, the information content, self-information, surprisal, or Shannon information is a basic quantity derived from the probability of a particular event occurring from a random variable. It can be thought of as an alternative way of expressing probability, much like odds or log-odds, but which has particular mathematical advantages in the setting of information theory. The Shannon information can be interpreted as quantifying the level of "surprise" of a particular outcome.
H.264vignette|Le diagrame de ce système H.264, ou MPEG-4 AVC (Advanced Video Coding), ou MPEG-4 Part 10, est une norme de codage vidéo développée conjointement par l'UIT-T Q.6/SG16 Video Coding Experts Group (VCEG) ainsi que l'ISO/CEI Moving Picture Experts Group (MPEG) et est le produit d'un effort de partenariat connu sous le nom Joint Video Team (JVT). La norme UIT-T H.264 et la norme ISO/CEI MPEG-4 Part 10 (ISO/CEI 14496-10) sont techniquement identiques, et la technologie employée est aussi connue sous le nom AVC, pour Advanced Video Coding.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Système international d'unitésLe Système international d'unités (abrégé en SI), inspiré du système métrique, est le système d'unités le plus largement employé au monde ; il n'est pas officiellement utilisé aux États-Unis, au Liberia et en Birmanie. Il s’agit d’un système décimal (on passe d’une unité à ses multiples ou sous-multiples à l’aide de puissances de 10) sauf pour la mesure du temps et des angles. C’est la Conférence générale des poids et mesures, rassemblant des délégués des États membres de la Convention du Mètre, qui décide de son évolution, tous les quatre ans, à Paris.
H.265H.265, ou « MPEG-H HEVC » (High Efficiency Video Coding), est une norme de codage/compression vidéo ISO/CEI 23008-2 et UIT-T H.265, publiée le . Elle est développée conjointement par les groupes Video Coding Experts Group (VCEG) et Moving Picture Experts Group (MPEG) et doit succéder au H.264 (ISO/CEI 14496-10 et UIT-T H.264). Ses applications concernent aussi bien la compression des vidéos en ultra-haute définition que la diminution du débit de transmission sur les réseaux pour les vidéos en définition standard avec des applications pour la vidéo sur mobile et pour l'extension de l'éligibilité aux services audiovisuels (TV, VoD.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Codage neuronalLe codage neuronal désigne, en neurosciences, la relation hypothétique entre le stimulus et les réponses neuronales individuelles ou globales. C'est une théorie sur l'activité électrique du système nerveux, selon laquelle les informations, par exemple sensorielles, numériques ou analogiques, sont représentées dans le cerveau par des réseaux de neurones. Le codage neuronal est lié aux concepts du souvenir, de l'association et de la mémoire sensorielle.