Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
Explore les modèles linéaires, les surajustements et l'importance de l'expansion des fonctionnalités et ajoute plus de données pour réduire les surajustements.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Couvre une analyse SWOT de l'apprentissage automatique et de l'intelligence artificielle, explorant les forces, les faiblesses, les possibilités et les menaces sur le terrain.
Explore les modèles linéaires, la régression, la prédiction multi-sorties, la classification, la non-linéarité et l'optimisation basée sur le gradient.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.