Discute de l'entropie, des transformations isotropes, des interdictions de Clausius-Kelvin, ainsi que du cycle Carnot et de l'efficacité des machines à deux sources de chaleur.
Couvre les mesures d'information telles que l'entropie, la divergence Kullback-Leibler et l'inégalité de traitement des données, ainsi que les noyaux de probabilité et les informations mutuelles.