Couvre la méthode des gradients conjugués pour résoudre les systèmes linéaires itérativement avec la convergence quadratique et souligne l'importance de l'indépendance linéaire entre les directions conjuguées.
Explore les méthodes de descente des gradients pour optimiser les fonctions sur les collecteurs, en mettant l'accent sur les petites garanties de gradient et la convergence globale.
Couvre le concept de descente de gradient dans les cas scalaires, en se concentrant sur la recherche du minimum d'une fonction en se déplaçant itérativement dans la direction du gradient négatif.
Explore la méthode de Newton pour optimiser les fonctions sur les collecteurs à l'aide d'informations de deuxième ordre et discute de ses inconvénients et de ses corrections.