Concept

Entropie conditionnelle

Résumé
En théorie de l'information, l'entropie conditionnelle décrit la quantité d'information nécessaire pour connaitre le comportement d'une variable aléatoire Y, lorsque l'on connait exactement une variable aléatoire X. On note \Eta(Y|X) l'entropie conditionnelle de Y sachant X. On dit aussi parfois entropie de Y conditionnée par X. Comme les autres entropies, elle se mesure généralement en bits. Définitions On peut introduire l'entropie conditionnelle de plusieurs façons, soit directement à partir des probabilités conditionnelles, soit en passant par l'entropie conjointe. Les deux définitions sont équivalentes. Définition directe On définit l'entropie conditionnelle à partir de la probabilité conditionnelle de Y relativement à X : :\Eta(Y|X) := \sum_{y \in \mathcal Y,x \in \mathcal X} - \mathbb P(X=x,Y=y) \log_2(\mathbb P(Y=y|X=x))
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Publications associées

Chargement

Personnes associées

Chargement

Unités associées

Chargement

Concepts associés

Chargement

Cours associés

Chargement

Séances de cours associées

Chargement