Cette séance de cours couvre le concept d'entropie conditionnelle, ses définitions et ses implications dans la théorie de l'information. L'instructeur commence par un examen de l'entropie et de la compression des données, en soulignant l'importance de comprendre comment l'information peut être compressée. La discussion comprend le théorème de compression fondamentale et son application à des sources indépendantes et distribuées de manière identique (IID). L'instructeur introduit l'entropie conditionnelle, expliquant son importance dans la réduction de l'incertitude lorsque des informations supplémentaires sont connues. Divers exemples, y compris un quiz et des exercices liés à des variables aléatoires, sont présentés pour illustrer ces concepts. La séance de cours explore également la règle de la chaîne pour l'entropie, démontrant comment l'entropie commune peut être exprimée en termes d'entropies individuelles et d'entropies conditionnelles. L'instructeur met l'accent sur les applications pratiques de ces théories en cryptographie et codage de canal, fournissant un aperçu complet du matériel couvert dans le cours. La session se termine par une discussion sur les implications de ces concepts dans des scénarios du monde réel, renforçant les fondements théoriques énoncés tout au long de la séance de cours.