Couvre les bases d'optimisation, y compris l'optimisation sans contrainte et les méthodes de descente de gradient pour trouver des solutions optimales.
Explore le rôle du calcul dans les mathématiques de données, en mettant l'accent sur les méthodes itératives, l'optimisation, les estimateurs et les principes d'ascendance.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Discute des techniques d'optimisation avancées, en se concentrant sur des méthodes de descente de gradient plus rapides et projetées dans l'apprentissage automatique.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.