Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Couvre l'estimation de la densité du noyau axée sur la sélection de la bande passante, la malédiction de la dimensionnalité, le compromis entre les biais et les modèles paramétriques et non paramétriques.
Couvre les techniques de réduction de dimensionnalité, de regroupement et d'estimation de la densité, y compris l'ACP, les moyennes K, le MGM et le décalage moyen.
Explore le sous-ajustement, le surajustement, les hyperparamètres, le compromis biais-variance et l'évaluation de modèle dans l'apprentissage automatique.
Introduit le Support Vector Clustering (SVC) à l'aide d'un noyau gaussien pour la cartographie spatiale des caractéristiques de grande dimension et explique ses contraintes et Lagrangian.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.