Couvre les bases de Pytorch avec les ensembles de données MNIST et Digits, en mettant l'accent sur la formation des réseaux neuronaux pour la reconnaissance manuscrite des chiffres.
Couvre l'histoire et les concepts fondamentaux des réseaux neuronaux, y compris le modèle mathématique d'un neurone, la descente de gradient et le perceptron multicouche.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Couvre l'histoire et l'inspiration derrière les réseaux neuronaux artificiels, la structure des neurones, l'apprentissage par les connexions synaptiques et la description mathématique des neurones artificiels.
Explore l'histoire, les modèles, la formation, la convergence et les limites des réseaux neuronaux, y compris l'algorithme de rétropropagation et l'approximation universelle.
Couvre la fonction neuronale, les modèles hiérarchiques, les comportements des taxis odorants et les paramètres de circuit disparates dans 18 diapositives.