Explore les bases de l'optimisation telles que les normes, la convexité et la différentiabilité, ainsi que les applications pratiques et les taux de convergence.
Explore la règle de la chaîne pour les compositions de fonctions différentielles dans des dimensions plus élevées, en mettant l'accent sur les gradients et les changements directionnels.
Explore les expansions et les rétractations de Taylor sur les collecteurs Riemanniens, en mettant l'accent sur les approximations de second ordre et les dérivés covariants.