Théorème du codage de sourceLe théorème du codage de source (ou premier théorème de Shannon, ou encore théorème de codage sans bruit) est un théorème en théorie de l'information, énoncé par Claude Shannon en 1948, qui énonce la limite théorique pour la compression d'une source. Le théorème montre que l'on ne peut pas compresser une chaine de variables aléatoires i.i.d, quand la longueur de celle-ci tend vers l'infini, de telle sorte à ce que la longueur moyenne des codes des variables soit inférieure à l'entropie de la variable source.
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Compilateur source à sourceUn compilateur source à source, transpileur ou transcompilateur est un type de compilateur qui prend le code source d'un langage de programmation et le compile dans un autre langage de programmation. Un compilateur source-à-source opère sur deux langages avec approximativement le même niveau d'abstraction, alors qu'un compilateur traditionnel compile un langage de haut niveau vers un langage de bas niveau. Un des premiers compilateurs de ce type était le XLT86 de Digital Research en 1981, un programme écrit par Gary Kildall qui compilait du code .
Degré CelsiusLe degré Celsius, de symbole °C, est l'unité de l’échelle de température Celsius, qui est une unité dérivée du Système international, introduite le . Son nom est une référence à l'astronome et physicien suédois Anders Celsius, inventeur en 1742 d'une des premières échelles centigrades de température. Cette unité de mesure est d'usage courant à travers le monde, à l'exception des États-Unis, du Belize et des îles Caïmans, qui utilisent encore l'échelle Fahrenheit.
Quantification (signal)En traitement des signaux, la quantification est le procédé qui permet d'approcher un signal continu par les valeurs d'un ensemble discret d'assez petite taille. On parle aussi de quantification pour approcher un signal à valeurs dans un ensemble discret de grande taille par un ensemble plus restreint. L'application la plus courante de la quantification est la conversion analogique-numérique mais elle doit le développement de sa théorie aux problèmes de quantification pour la compression de signaux audio ou .
Pascal (unité)Le pascal, de symbole Pa, est l'unité de pression ou de contrainte du Système international d'unités (SI). Il tient son nom de Blaise Pascal. Conformément aux règles du SI son nom commence par une minuscule (« pascal ») et, puisqu'il provient d'un nom propre, son symbole commence par une . L'éponyme du pascal est Blaise Pascal (-). Le nom de l'unité apparaît en 1956 dans les tables de G.W.C. Kaye et T.H. Laby. Dès , la France l'adopte comme et le définit comme . En , la l'adopte à l'unanimité.
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
Distortion risk measureIn financial mathematics and economics, a distortion risk measure is a type of risk measure which is related to the cumulative distribution function of the return of a financial portfolio. The function associated with the distortion function is a distortion risk measure if for any random variable of gains (where is the Lp space) then where is the cumulative distribution function for and is the dual distortion function . If almost surely then is given by the Choquet integral, i.e.
Éditeur de code sourceUn éditeur de code source est un programme d'édition de texte spécialement conçu pour l'édition du code source d'un programme informatique . Il peut s'agir d'une application autonome ou intégrée à un environnement de développement intégré (IDE) ou à un navigateur Web. Un éditeur de code source est un outil de programmation fondamental, car le travail fondamental des programmeurs est d'écrire et de modifier le code source.