Couvre un cours intensif sur l'apprentissage profond, y compris le Mark I Perceptron, les réseaux neuronaux, les algorithmes d'optimisation et les aspects de formation pratique.
Explore l'optimisation non convexe dans l'apprentissage profond, couvrant les points critiques, la convergence SGD, les points de selle et les méthodes de gradient adaptatif.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
Explore le modèle de perceptron multicouche, la formation, l'optimisation, le prétraitement des données, les fonctions d'activation, la rétropropagation et la régularisation.
Explore l'analyse stochastique de la descente et du champ moyen dans les réseaux neuraux à deux couches, en mettant l'accent sur leurs processus itératifs et leurs fondements mathématiques.
Couvre les bases des réseaux neuronaux convolutionnels, y compris l'optimisation de la formation, la structure des couches et les pièges potentiels des statistiques sommaires.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.