Introduit des concepts d'apprentissage profond pour les NLP, couvrant l'intégration de mots, les RNN et les Transformateurs, mettant l'accent sur l'auto-attention et l'attention multi-têtes.
Explore l'application de la physique statistique à la compréhension de l'apprentissage profond en mettant l'accent sur les réseaux neuronaux et les défis de l'apprentissage automatique.
Plonge dans l'impact de l'apprentissage profond sur les systèmes de connaissances non conceptuels et les progrès dans les transformateurs et les réseaux antagonistes génératifs.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Couvre les principes fondamentaux de l'apprentissage profond, y compris les données, l'architecture et les considérations éthiques dans le déploiement de modèles.
Explore l'impact de l'apprentissage profond sur les humanités numériques, en se concentrant sur les systèmes de connaissances non conceptuels et les progrès récents de l'IA.