Explore les conditions KKT dans l'optimisation convexe, couvrant les cônes doubles, les propriétés, les inégalités généralisées et les conditions d'optimisation.
Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Couvre les mesures d'information telles que l'entropie, la divergence Kullback-Leibler et l'inégalité de traitement des données, ainsi que les noyaux de probabilité et les informations mutuelles.