Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Explore la sélection des modèles dans la régression des moindres carrés, en abordant les défis de multicollinéarité et en introduisant des techniques de rétrécissement.
Explore les classificateurs voisins les plus proches, le compromis entre les biais, la malédiction de la dimensionnalité et les limites de généralisation dans l'apprentissage automatique supervisé.
Couvre l'estimation, le rétrécissement et la pénalisation des statistiques pour la science des données, soulignant l'importance d'équilibrer le biais et la variance dans l'estimation des modèles.
Explore la théorie de la généralisation dans l'apprentissage automatique, en abordant les défis dans les espaces de dimension supérieure et le compromis entre les biais et les variables.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore le surajustement, la validation croisée et la régularisation dans l'apprentissage automatique, en mettant l'accent sur la complexité du modèle et l'importance de la force de régularisation.