Cette séance de cours couvre la révision des méthodes de descente les plus raides et de gradient conjugué, le préconditionnement, la méthode de gradient conjugué généralisé et les méthodes de gradient conjugué non linéaire. Il traite de la recherche de lignes en utilisant la méthode Newton-Raphson, de la décomposition des valeurs singulières et de la convergence des deux algorithmes. L'instructeur explique les problèmes restants et les solutions, telles que le préconditionnement, la méthode CG généralisée et la méthode conjuguée non linéaire. Le concept de préconditionnement Jacobi est introduit, ainsi que l'idée de résoudre Ax b indirectement. La séance de cours explore également la méthode du gradient conjugué non linéaire, mettant en évidence les différences par rapport à la méthode CG ordinaire. En outre, il explore l'objectif de recherche de ligne et l'interprétation géométrique de la décomposition en valeurs singulières (SVD) et de la décomposition en valeurs propres (EVD).