Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Couvre la représentation des données, la formation MLP, les fonctions d'activation et l'apprentissage basé sur le gradient dans les réseaux de neurones profonds.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
Explore la formation, l'optimisation et les considérations environnementales des réseaux neuronaux, avec des informations sur les clusters PCA et K-means.