Cette séance de cours couvre les concepts fondamentaux des variables aléatoires et leurs applications dans la théorie de l'information. Il commence par une introduction aux variables aléatoires, en utilisant des exemples tels que les conditions de neige à Zermatt et Nendaz pour illustrer le concept. L'instructeur explique la distribution marginale et comment calculer les probabilités associées aux variables aléatoires. La valeur attendue des variables aléatoires est discutée, en soulignant sa linéarité et son importance dans la modélisation. La séance de cours explore également l'indépendance des variables aléatoires, fournissant des définitions et des exemples pour clarifier le concept. L'instructeur présente l'entropie de Shannon comme une mesure de l'incertitude et de l'information, la comparant à la mesure de Hartley. Divers exemples, y compris les prévisions météorologiques et les statistiques démographiques, sont utilisés pour démontrer comment calculer l'entropie et comprendre ses implications. La séance de cours se termine par une discussion sur l'importance de l'entropie en informatique et ses applications dans la compression des données et la théorie de l'information, ouvrant la voie à une exploration plus approfondie dans les sessions suivantes.