Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Couvre la mécanique du continuum, l'élasticité linéaire, l'équilibre des forces, la divergence, la discrétisation des éléments finis, la minimisation de l'énergie et la méthode de Newton.
Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.