Couvre la variation de la méthode des constantes pour résoudre les équations différentielles linéaires du premier ordre, détaillant ses étapes et ses implications pour les solutions générales et particulières.
Explore les problèmes d'optimisation en algèbre et en équations trinomiales, en se concentrant sur la maximisation de la surface avec des périmètres fixes.
Couvre le débruitage et la reconstruction d'images en utilisant une minimisation totale des variations et discute des effets visuels des différentes forces de régularisation.
S'oriente vers l'approximation du réseau neuronal, l'apprentissage supervisé, les défis de l'apprentissage à haute dimension et la révolution expérimentale de l'apprentissage profond.
Couvre le théorème de décomposition de Doob pour les sous-martingales et explore les propriétés des mouvements browniens, la variation quadratique et les martingales continues.