Explore les promenades aléatoires, le modèle Moran, la chimiotaxie bactérienne, l'entropie, la théorie de l'information et les sites en coévolution dans les protéines.
Sur l'entropie et l'information mutuelle explore la quantification de l'information dans la science des données au moyen de distributions de probabilités.
Explore les informations mutuelles pour quantifier la dépendance statistique entre les variables et déduire des distributions de probabilité à partir de données.
Explore le concept d'entropie exprimée en bits et sa relation avec les distributions de probabilité, en se concentrant sur le gain et la perte d'informations dans divers scénarios.
Explore la corrélation maximale dans la théorie de l'information, les propriétés mutuelles de l'information, les mesures de Renyi et les fondements mathématiques de la théorie de l'information.