Explore les méthodes de régularisation dans les réseaux neuronaux, en soulignant l'importance des bases d'entraînement et de validation pour éviter les surajustements.
Discute des méthodes du noyau, en se concentrant sur les surajustements, la sélection des modèles et les fonctions du noyau dans l'apprentissage automatique.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Introduit des techniques pour obtenir des estimations impartiales du risque des prédicteurs appris et leur application pour l'accord hyperparamétrique.
Introduit les bases de l'apprentissage automatique, couvrant la classification supervisée, les limites de décision et l'ajustement de la courbe polynomiale.
Explore le surajustement, la régularisation et la validation croisée dans l'apprentissage automatique, soulignant l'importance de l'expansion des fonctionnalités et des méthodes du noyau.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.