Explore le modèle de perceptron multicouche, la formation, l'optimisation, le prétraitement des données, les fonctions d'activation, la rétropropagation et la régularisation.
Explore l'optimisation non convexe dans l'apprentissage profond, couvrant les points critiques, la convergence SGD, les points de selle et les méthodes de gradient adaptatif.
Couvre la représentation des données, la formation MLP, les fonctions d'activation et l'apprentissage basé sur le gradient dans les réseaux de neurones profonds.
Explore les méthodes d'optimisation RMSprop et ADAM dans les réseaux neuronaux artificiels, en se concentrant sur les fonctions d'erreur, l'élan et le rapport signal/bruit.
Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Explore l'impact du bruit de gradient sur les algorithmes d'optimisation, en se concentrant sur les fonctions de risque lisses et non lisses et la dérivation des moments de bruit de gradient.
Couvre les réseaux neuronaux convolutionnels, y compris les couches, les stratégies de formation, les architectures standard, les tâches comme la segmentation sémantique, et les astuces d'apprentissage profond.