Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre l'apprentissage supervisé en mettant l'accent sur la régression linéaire, y compris des sujets comme la classification numérique, la détection des pourriels et la prédiction de la vitesse du vent.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Présente les principes fondamentaux de la régression dans l'apprentissage automatique, couvrant la logistique des cours, les concepts clés et l'importance des fonctions de perte dans l'évaluation des modèles.
Explore les fonctions de perte, la descente de gradient et l'impact de la taille des pas sur l'optimisation dans les modèles d'apprentissage automatique, en soulignant l'équilibre délicat requis pour une convergence efficace.