Explore l'entropie, le caractère aléatoire et la quantification de l'information dans l'analyse des données biologiques, y compris les neurosciences et la prédiction de la structure des protéines.
Explore la théorie de l'information traditionnelle, la compression des données, la transmission des données et les lemmas de représentation fonctionnelle dans les systèmes en réseau.
Plonge dans l’entropie des données neuroscientifiques et de l’écologie, explorant la représentation de l’information sensorielle et la diversité des populations biologiques.
Sur l'entropie et l'information mutuelle explore la quantification de l'information dans la science des données au moyen de distributions de probabilités.
Explore l'information mutuelle, quantifiant les relations entre les variables aléatoires et mesurant le gain d'information et la dépendance statistique.