Modèle de Markov cachéUn modèle de Markov caché (MMC, terme et définition normalisés par l’ISO/CÉI [ISO/IEC 2382-29:1999]) — (HMM)—, ou plus correctement (mais non employé) automate de Markov à états cachés, est un modèle statistique dans lequel le système modélisé est supposé être un processus markovien de paramètres inconnus. Contrairement à une chaîne de Markov classique, où les transitions prises sont inconnues de l'utilisateur mais où les états d'une exécution sont connus, dans un modèle de Markov caché, les états d'une exécution sont inconnus de l'utilisateur (seuls certains paramètres, comme la température, etc.
Chaîne de Markovvignette|Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »).
Authentification défi-réponseEn sécurité informatique, l'authentification défi-réponse (aussi appelé authentification challenge-réponse ; en anglais, Challenge-response authentication) est une famille de protocoles dans lesquels une partie présente une question (le défi) et une autre partie doit fournir une réponse valide (la réponse) pour être authentifiée. L'exemple le plus simple d'un protocole défi-réponse est l'authentification par mot de passe, où le défi est de demander le mot de passe et la réponse valide est le mot de passe correct.
Propriété de Markovvignette|Exemple de processus stochastique vérifiant la propriété de Markov: un mouvement Brownien (ici représenté en 3D) d'une particule dont la position à un instant t+1 ne dépend que de la position précédente à l'instant t. En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »).
Aide à la décision multicritèreL'aide à la décision multicritère constitue une branche d'étude majeure de la recherche opérationnelle impliquant plusieurs écoles de pensée, principalement américaine avec les travaux de Thomas L. Saaty et européenne avec ceux de Bernard Roy et du LAMSADE (Laboratoire d'analyse et modélisation de systèmes pour l'aide à la décision). Il s'agit de méthodes et de calculs permettant de choisir la meilleure solution ou la solution optimale parmi tout un ensemble de solutions, l'alternative de type OUI-NON n'étant qu'un cas particulier du cas général.
Dynamique de frappe au clavierLa dynamique de frappe ou biométrie de frappe désigne les informations détaillées qui décrivent exactement quand chaque touche a été pressé et quand elle a été relâchée lorsqu'une personne tape sur un clavier d'ordinateur. La biométrie comportementale de Keystroke Dynamics utilise la manière et le rythme dans lesquels un individu tape des caractères sur un clavier ou un pavé numérique. Les rythmes de frappe d'un utilisateur sont mesurés pour développer un modèle biométrique unique du modèle de frappe de l'utilisateur pour une authentification future.
Markov information sourceIn mathematics, a Markov information source, or simply, a Markov source, is an information source whose underlying dynamics are given by a stationary finite Markov chain. An information source is a sequence of random variables ranging over a finite alphabet , having a stationary distribution. A Markov information source is then a (stationary) Markov chain , together with a function that maps states in the Markov chain to letters in the alphabet .
Bayes estimatorIn estimation theory and decision theory, a Bayes estimator or a Bayes action is an estimator or decision rule that minimizes the posterior expected value of a loss function (i.e., the posterior expected loss). Equivalently, it maximizes the posterior expectation of a utility function. An alternative way of formulating an estimator within Bayesian statistics is maximum a posteriori estimation. Suppose an unknown parameter is known to have a prior distribution .
Système visuel humainLe est l'ensemble des organes participant à la perception visuelle humaine, de la rétine au système sensori-moteur. Son rôle est de percevoir et d'interpréter deux images en deux dimensions en une image en trois dimensions. Il est principalement constitué de l'œil (et plus particulièrement la rétine), des nerfs optiques, du chiasma optique, du tractus optique, du corps genouillé latéral, des radiations optiques et du cortex visuel. En première approximation, l'œil peut être assimilé à un appareil photographique.
Passeport biométriquevignette|Symbole distinguant les passeports biométriques. Un passeport biométrique est un passeport doté d'une puce électronique qui contient des informations biométriques pouvant être utilisées pour authentifier l'identité du détenteur du passeport. Il utilise une technologie de carte à puce sans contact, une puce de microprocesseur et une antenne intégrées dans la couverture avant ou arrière, ou page centrale du passeport. Les informations critiques du passeport sont à la fois imprimées sur la page de données du passeport et stockées dans la puce électronique.