Explore l'application de la physique statistique à la compréhension de l'apprentissage profond en mettant l'accent sur les réseaux neuronaux et les défis de l'apprentissage automatique.
Explore les modèles de calcul du système visuel ventral, en se concentrant sur l'optimisation des réseaux pour les tâches réelles et la comparaison avec les données cérébrales.
Contient les CNN, les RNN, les SVM et les méthodes d'apprentissage supervisé, soulignant l'importance d'harmoniser la régularisation et de prendre des décisions éclairées dans le domaine de l'apprentissage automatique.
Explore comment les architectures modernes ont vaincu la malédiction de la dimensionnalité et l'importance de la stabilité dans les modèles d'apprentissage en profondeur.
Explore la méthode de fonction aléatoire pour résoudre les PDE à l'aide d'algorithmes d'apprentissage automatique pour approximer efficacement les fonctions à haute dimension.
Explore l'évolution de la représentation de l'image, les défis dans l'apprentissage supervisé, les avantages de l'apprentissage auto-supervisé, et les progrès récents dans SSL.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Analyse la descente du gradient sur les réseaux neuraux ReLU à deux couches, en explorant la convergence globale, la régularisation, les biais implicites et l'efficacité statistique.