Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Couvre les bases des réseaux neuronaux convolutionnels, y compris l'optimisation de la formation, la structure des couches et les pièges potentiels des statistiques sommaires.
Introduit les réseaux de mémoire à long terme (LSTM) comme une solution pour la disparition et l'explosion des gradients dans les réseaux neuronaux récurrents.
Explore la dynamique d'apprentissage des réseaux neuronaux profonds en utilisant des réseaux linéaires pour l'analyse, couvrant les réseaux à deux couches et à plusieurs couches, l'apprentissage autosupervisé et les avantages de l'initialisation découplée.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.