Explore le surajustement dans la régression polynomiale, en soulignant l'importance de la généralisation dans l'apprentissage automatique et les statistiques.
Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Explore limpact de la complexité du modèle sur la qualité de la prédiction à travers le compromis biais-variance, en mettant laccent sur la nécessité déquilibrer le biais et la variance pour une performance optimale.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Couvre le surajustement, la régularisation et la validation croisée dans l'apprentissage des machines, explorant le réglage des courbes polynômes, l'expansion des fonctionnalités, les fonctions du noyau et la sélection des modèles.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Explore les splines, en mettant l'accent sur la méthode des moindres carrés pour interpoler les splines et en démontrant son application à l'aide de MATLAB.