Plonge dans la quantification de l'entropie dans les données de neurosciences, explorant comment l'activité neuronale représente l'information sensorielle et les implications des séquences binaires.
Introduit des variables aléatoires et leur signification dans la théorie de l'information, couvrant des concepts tels que la valeur attendue et l'entropie de Shannon.
Explore les limites de l'entropie, les théorèmes conditionnels de l'entropie et la règle de chaîne pour les entropies, illustrant leur application à travers des exemples.
Couvre les marginaux articulaires et la causalité de Granger dans la théorie des probabilités, en expliquant leurs implications dans la prédiction des résultats.