Cette séance de cours couvre la préparation pour dériver l'algorithme Backprop comme descente de gradient dans les réseaux en couches, y compris l'utilisation de perceptrons multicouches, l'apprentissage supervisé avec sortie sigmoidal, la notation dans les perceptrons multicouches, descente de gradient, calcul des étapes de gradient, et l'application de la règle de la chaîne pour les mises à jour de poids.