Explore les limites de l'entropie, les théorèmes conditionnels de l'entropie et la règle de chaîne pour les entropies, illustrant leur application à travers des exemples.
Introduit le modèle de subcube aléatoire (RSM) pour les problèmes de satisfaction des contraintes, explorant sa structure, les transitions de phase et le gel variable.
Sur l'entropie et l'information mutuelle explore la quantification de l'information dans la science des données au moyen de distributions de probabilités.
Explore les promenades aléatoires, le modèle Moran, la chimiotaxie bactérienne, l'entropie, la théorie de l'information et les sites en coévolution dans les protéines.
Couvre les modèles générateurs en mettant l'accent sur l'auto-attention et les transformateurs, en discutant des méthodes d'échantillonnage et des moyens empiriques.