Explore l'optimisation Conjugate Gradient, couvrant les cas quadratiques et non linéaires, les conditions Wolfe, BFGS, les algorithmes CG et la symétrie matricielle.
Présente les méthodes Quasi-Newton pour l'optimisation, expliquant leurs avantages par rapport aux approches traditionnelles comme Gradient Descent et Newton's Method.