Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Couvre les probabilités, les variables aléatoires, les attentes, les GLM, les tests d'hypothèse et les statistiques bayésiennes avec des exemples pratiques.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Couvre les principes de régression de mélange gaussien, la modélisation des densités articulaires et conditionnelles pour les ensembles de données multimodaux.