Introduit des variables aléatoires et leur signification dans la théorie de l'information, couvrant des concepts tels que la valeur attendue et l'entropie de Shannon.
Explore la compression des données, y compris les méthodes sans perte et la nécessité de la compression sans perte pour les nombres réels et les signaux.
Explore les origines et l'interprétation de l'entropie, en mettant l'accent sur son rôle dans la mesure du trouble et du contenu de l'information dans un système.