Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les concepts de divergence entropie et Kullback-Leibler (KL) dans le contexte des modèles de probabilité. L'entropie est une mesure du trouble ou de l'imprévisibilité dans un système aléatoire, tandis que la divergence KL quantifie la différence entre deux distributions de probabilités. La séance de cours explore comment ces concepts peuvent être utilisés pour comparer les distributions et prendre des décisions éclairées en matière de science des données. En outre, elle se penche sur le principe de l'entropie maximale et son application dans le choix des modèles de probabilité sous des contraintes spécifiques, fournissant une base théorique pour l'analyse statistique.