Explore les modèles linéaires, la régression, la prédiction multi-sorties, la classification, la non-linéarité et l'optimisation basée sur le gradient.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Introduit une régression linéaire et logistique, couvrant les modèles paramétriques, la prédiction multi-sorties, la non-linéarité, la descente de gradient et les applications de classification.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre la récapitulation de Support Vector Regression avec un accent sur l'optimisation convexe et son équivalence à la régression du processus gaussien.
Explore les bases de l'optimisation telles que les normes, la convexité et la différentiabilité, ainsi que les applications pratiques et les taux de convergence.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.