S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.
Explore les vecteurs gaussiens, les fonctions génératrices de moment, l'indépendance, les fonctions de densité, les transformations affines et les formes quadratiques.
Introduit l'analyse des composantes principales, en mettant l'accent sur la maximisation de la variance dans les combinaisons linéaires pour résumer efficacement les données.
Couvre les copules, le théorème de Sklar, les méta distributions et diverses mesures de dépendance comme les corrélations de rang et les coefficients de dépendance de la queue.