Explore le modèle de perceptron multicouche, la formation, l'optimisation, le prétraitement des données, les fonctions d'activation, la rétropropagation et la régularisation.
Plonge dans la propagation en arrière dans l'apprentissage profond, répondant au défi de la disparition du gradient et à la nécessité d'unités cachées efficaces.
Couvre la préparation pour dériver l'algorithme Backprop dans des réseaux en couches en utilisant des perceptrons multicouches et la descente de gradient.
Explore l'apprentissage bio-inspiré avec des réseaux neuronaux et des algorithmes génétiques, couvrant la structure, la formation et les applications pratiques.
Couvre la représentation des données, la formation MLP, les fonctions d'activation et l'apprentissage basé sur le gradient dans les réseaux de neurones profonds.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.