Explore les techniques de régression non paramétrique, y compris les splines, le compromis entre les variables de biais, les fonctions orthogonales, les ondulations et les estimateurs de modulation.
Explore les mesures d'évaluation des modèles, les techniques de sélection, le compromis biais-variance et la gestion des distributions de données biaisées dans l'apprentissage automatique.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Explore le compromis entre les variables de biais dans l'estimation des crêtes, montrant comment un peu de biais peut augmenter l'erreur carrée moyenne en réduisant la variance.
Discute du surajustement, de la sélection des modèles, de la validation croisée, de la régularisation, des représentations de données et de la gestion des données déséquilibrées dans l'apprentissage automatique.