Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Introduit des modèles linéaires pour l'apprentissage supervisé, couvrant le suréquipement, la régularisation et les noyaux, avec des applications dans les tâches d'apprentissage automatique.
Explore l'apprentissage supervisé en mettant l'accent sur les méthodes de régression, y compris l'ajustement des modèles, la régularisation, la sélection des modèles et l'évaluation du rendement.
Explore l'ajustement de la courbe polynomiale, les fonctions du noyau et les techniques de régularisation, en soulignant l'importance de la complexité du modèle et du surajustement.
Explore les méthodes du noyau dans l'apprentissage automatique, en mettant l'accent sur leur application dans les tâches de régression et la prévention du surajustement.
Couvre l'estimation, le rétrécissement et la pénalisation des statistiques pour la science des données, soulignant l'importance d'équilibrer le biais et la variance dans l'estimation des modèles.