Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours explore le concept de l'information mutuelle, en explorant comment elle quantifie la relation entre les variables aléatoires. En commençant par une explication de l'entropie articulaire et de l'entropie conditionnelle, l'instructeur discute de l'importance de l'information mutuelle dans la compréhension de la dépendance statistique et des relations non linéaires. La séance de cours couvre également le calcul de l'information mutuelle, ses propriétés et son application à la quantification de l'aléatoire et du gain d'information. En outre, la présentation touche à la divergence Kullback-Leibler comme une mesure de la dissemblance entre les distributions de probabilité. À travers des exemples et des explications théoriques, la séance de cours fournit une compréhension complète de la façon dont l'information mutuelle peut révéler des informations précieuses dans l'analyse des données.