Couvre la préparation pour dériver l'algorithme Backprop dans des réseaux en couches en utilisant des perceptrons multicouches et la descente de gradient.
Discute de la différenciation automatique, en mettant l'accent sur la différenciation en mode inverse pour optimiser les filtres de couche convolutifs par descente de gradient.
Introduit des perceptrons multicouches (MLP) et couvre la régression logistique, la reformulation, la descente de gradient, AdaBoost et les applications pratiques.
Explore le développement historique et la formation de perceptrons multicouches, en mettant l'accent sur l'algorithme de rétropropagation et la conception de fonctionnalités.