Séance de cours

Mesures de l'information : Entropie et théorie de l'information

Description

Cette séance de cours couvre le concept d'entropie dans la théorie de l'information, remontant aux travaux de Claude Shannon en 1948. Il explique comment l'entropie mesure l'incertitude ou le caractère aléatoire dans un système en fonction du nombre de résultats possibles.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.