Couvre le processus de formation d'un réseau neuronal, y compris l'avancement, la fonction de coût, la vérification des gradients et la visualisation des couches cachées.
Explore les défis d'apprentissage avec les déplacements de distribution et la géométrie de perturbation, en mettant l'accent sur des classificateurs robustes et la modélisation de variation naturelle.
Explore l'importance de la modélisation et de la prévision d'environnements incertains pour assurer une autonomie sûre et performante dans les systèmes autonomes modernes.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.
Couvre les architectures de transformateurs avancées en apprentissage profond, en se concentrant sur les modèles Swin, HUBERT et Flamingo pour les applications multimodales.
Couvre l'impact des transformateurs dans la vision par ordinateur, en discutant de leur architecture, de leurs applications et de leurs progrès dans diverses tâches.