Cette séance de cours couvre les mesures d'information, y compris l'entropie, l'entropie conjointe, l'entropie conditionnelle, l'information mutuelle et la divergence Kullback-Leibler. Il explique les concepts à l'aide de formules et d'exemples mathématiques, en soulignant l'importance de ces mesures dans la théorie de l'information et les applications de traitement de données.