Couvre le théorème du point fixe et la convergence de la méthode de Newton, en soulignant l'importance du choix de la fonction et du comportement de la dérivée pour une itération réussie.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Explore les compromis entre les données et le temps dans les problèmes de calcul, en mettant l'accent sur les rendements décroissants et les compromis continus.