Couvre l'algorithme de descente en gradient, visant à minimiser une fonction en se déplaçant itérativement dans la direction de la diminution la plus raide.
Couvre les méthodes de recherche de ligne de gradient et les techniques d'optimisation en mettant l'accent sur les conditions Wolfe et la définition positive.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.