Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Explore l'utilisation de l'optique dans l'apprentissage automatique, en se concentrant sur la multiplication de matrice aléatoire à grande échelle par diffusion multiple de la lumière.
Explore la formation, l'optimisation et les considérations environnementales des réseaux neuronaux, avec des informations sur les clusters PCA et K-means.
Explore comment les architectures modernes ont vaincu la malédiction de la dimensionnalité et l'importance de la stabilité dans les modèles d'apprentissage en profondeur.
Introduit les principes fondamentaux de l'apprentissage statistique, couvrant l'apprentissage supervisé, la théorie de la décision, la minimisation des risques et l'ajustement excessif.