Couvre les vecteurs aléatoires, la distribution articulaire, les fonctions de densité conditionnelle, l'indépendance, la covariance, la corrélation et l'attente conditionnelle.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre les copules, le théorème de Sklar, les méta distributions et diverses mesures de dépendance comme les corrélations de rang et les coefficients de dépendance de la queue.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.