Explore les fonctions de perte, la descente de gradient et l'impact de la taille des pas sur l'optimisation dans les modèles d'apprentissage automatique, en soulignant l'équilibre délicat requis pour une convergence efficace.
Introduit des modèles linéaires dans l'apprentissage automatique, couvrant les bases, les modèles paramétriques, la régression multi-sorties et les mesures d'évaluation.
Explore les modèles linéaires pour la classification, y compris les modèles paramétriques, la régression et la régression logistique, ainsi que les mesures d'évaluation des modèles et les classificateurs de marge maximum.
Explore les méthodes du noyau dans l'apprentissage automatique, en mettant l'accent sur leur application dans les tâches de régression et la prévention du surajustement.
Couvre les bases de l'apprentissage automatique, y compris les techniques supervisées et non supervisées, la régression linéaire et la formation des modèles.
Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.