Présente les réseaux neuronaux convolutifs, en expliquant leur architecture, leur processus de formation et leurs applications dans les tâches de segmentation sémantique.
Couvre les modèles générateurs en mettant l'accent sur l'auto-attention et les transformateurs, en discutant des méthodes d'échantillonnage et des moyens empiriques.
Explore le classement basé sur les liens grâce à des algorithmes PageRank et HITS, couvrant des exemples pratiques et des défis dans les méthodes de recherche et de classement sur le Web.
Déplacez-vous dans l'architecture Transformer, l'auto-attention et les stratégies de formation pour la traduction automatique et la reconnaissance d'image.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Introduit des concepts d'apprentissage profond pour les NLP, couvrant l'intégration de mots, les RNN et les Transformateurs, mettant l'accent sur l'auto-attention et l'attention multi-têtes.