BiométrieLe mot biométrie signifie littéralement « mesure du vivant » et désigne dans un sens très large l'étude quantitative des êtres vivants. Parmi les principaux domaines d'application de la biométrie, on peut citer l'agronomie, l'anthropologie, l'écologie et la médecine. L'usage de ce terme se rapporte de plus en plus à l'usage de ces techniques à des fins de reconnaissance, d'authentification et d'identification, le sens premier du mot biométrie étant alors repris par le terme biostatistique.
Empreinte digitalevignette| upright=0.9| Photo d'une empreinte digitale. vignette| upright=0.8| Dermatoglyphes d'un doigt : plis papillaires (crêtes et sillons). Une empreinte digitale ou dactylogramme est le dessin formé par un doigt sur un support suffisamment lisse pour qu'y restent marqués les dermatoglyphes. Les dermatoglyphes, également appelés « empreintes digitales » par abus de langage, sont des plis (des crêtes et des sillons) à la surface de la peau et particulièrement des doigts, qui forment des volutes et des tourbillons spécifiques à chaque doigt de chaque individu.
Reconnaissance veineusevignette|Extraction d'une empreinte biométrique du système veineux d'un doigt La reconnaissance veineuse est une technique de biométrie permettant de reconnaitre une personne par l'observation de son empreinte extraite de son système veineux, souvent à partir d'un doigt ou de la paume de la main. En anatomie, une veine est un vaisseau sanguin qui transporte du sang des organes vers le cœur. Le système veineux a pour tâche de transporter le sang appauvri en oxygène du corps vers le cœur, puis vers les poumons.
Entropie différentielleDifferential entropy (also referred to as continuous entropy) is a concept in information theory that began as an attempt by Claude Shannon to extend the idea of (Shannon) entropy, a measure of average (surprisal) of a random variable, to continuous probability distributions. Unfortunately, Shannon did not derive this formula, and rather just assumed it was the correct continuous analogue of discrete entropy, but it is not. The actual continuous version of discrete entropy is the limiting density of discrete points (LDDP).
Divergence de Kullback-LeiblerEn théorie des probabilités et en théorie de l'information, la divergence de Kullback-Leibler (ou divergence K-L ou encore entropie relative) est une mesure de dissimilarité entre deux distributions de probabilités. Elle doit son nom à Solomon Kullback et Richard Leibler, deux cryptanalystes américains. Selon la NSA, c'est durant les années 1950, alors qu'ils travaillaient pour cette agence, que Kullback et Leibler ont inventé cette mesure. Elle aurait d'ailleurs servi à la NSA dans son effort de cryptanalyse pour le projet Venona.
Passeport biométriquevignette|Symbole distinguant les passeports biométriques. Un passeport biométrique est un passeport doté d'une puce électronique qui contient des informations biométriques pouvant être utilisées pour authentifier l'identité du détenteur du passeport. Il utilise une technologie de carte à puce sans contact, une puce de microprocesseur et une antenne intégrées dans la couverture avant ou arrière, ou page centrale du passeport. Les informations critiques du passeport sont à la fois imprimées sur la page de données du passeport et stockées dans la puce électronique.
Principe d'entropie maximaleLe principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. De toutes ces distributions, c'est en effet celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser.
Entropie de RényiL'entropie de Rényi, due à Alfréd Rényi, est une fonction mathématique qui correspond à la quantité d'information contenue dans la probabilité de collision d'une variable aléatoire. Étant donnés une variable aléatoire discrète à valeurs possibles , ainsi qu'un paramètre réel strictement positif et différent de 1, l' entropie de Rényi d'ordre de est définie par la formule : L'entropie de Rényi généralise d'autres acceptions de la notion d'entropie, qui correspondent chacune à des valeurs particulières de .
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Entropie croiséeEn théorie de l'information, l'entropie croisée entre deux lois de probabilité mesure le nombre de bits moyen nécessaires pour identifier un événement issu de l'« ensemble des événements » - encore appelé tribu en mathématiques - sur l'univers , si la distribution des événements est basée sur une loi de probabilité , relativement à une distribution de référence . L'entropie croisée pour deux distributions et sur le même espace probabilisé est définie de la façon suivante : où est l'entropie de , et est la divergence de Kullback-Leibler entre et .