Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Explore des modèles d'apprentissage automatique pour les neurosciences, en se concentrant sur la compréhension des fonctions cérébrales et la reconnaissance des objets centraux par le biais de réseaux neuronaux convolutifs.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Se penche sur les perspectives géométriques des modèles d'apprentissage profond, explorant leur vulnérabilité aux perturbations et l'importance de la robustesse et de l'interprétabilité.
Explore la méthode de fonction aléatoire pour résoudre les PDE à l'aide d'algorithmes d'apprentissage automatique pour approximer efficacement les fonctions à haute dimension.
Présente les réseaux neuronaux convolutifs, en expliquant leur architecture, leur processus de formation et leurs applications dans les tâches de segmentation sémantique.