Couvre le concept de descente de gradient dans les cas scalaires, en se concentrant sur la recherche du minimum d'une fonction en se déplaçant itérativement dans la direction du gradient négatif.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Couvre les concepts fondamentaux de l'optimisation et de la recherche opérationnelle, en explorant des exemples du monde réel et des sujets clés sur un semestre.