Cette séance de cours couvre la descente en gradient avec mémoire en R2, introduisant des méthodes d'impulsion pour améliorer la vitesse de convergence. Il se substitue ensuite à des gradients conjugués avec l'élan, explorant l'utilisation de différentes règles bêta et leur impact sur les performances. L'instructeur discute également de CG non linéaire sur les collecteurs, en particulier Riemannian CG, mettant en évidence la riche famille d'algorithmes qu'elle produit et la théorie délicate derrière elle.