Explore les origines et l'interprétation de l'entropie, en mettant l'accent sur son rôle dans la mesure du trouble et du contenu de l'information dans un système.
Explore le concept dentropie comme le nombre moyen de questions nécessaires pour deviner une lettre choisie au hasard dans une séquence, en soulignant sa pertinence durable dans la théorie de linformation.
Explore un modèle de Markov de premier ordre à laide dun exemple de source ensoleillée-pluie, démontrant comment les événements passés influencent les résultats futurs.