Couvre les concepts fondamentaux de l'apprentissage profond et de l'architecture Transformer, en se concentrant sur les réseaux neuronaux, les mécanismes d'attention et leurs applications dans les tâches de modélisation de séquence.
Introduit des concepts d'apprentissage profond pour les NLP, couvrant l'intégration de mots, les RNN et les Transformateurs, mettant l'accent sur l'auto-attention et l'attention multi-têtes.
Couvre l'architecture du transformateur, en se concentrant sur les modèles codeurs-décodeurs et les mécanismes d'attention subquadratiques pour un traitement efficace des séquences d'entrée.
Explore la méthode de fonction aléatoire pour résoudre les PDE à l'aide d'algorithmes d'apprentissage automatique pour approximer efficacement les fonctions à haute dimension.
Couvre l'utilisation de transformateurs en robotique, en se concentrant sur la perception incarnée et les applications innovantes dans la locomotion humanoïde et l'apprentissage du renforcement.
En savoir plus sur l'apprentissage profond pour le traitement des langues naturelles, l'exploration de l'intégration des mots neuraux, des réseaux neuraux récurrents et de la modélisation des neurones avec les transformateurs.
Couvre les concepts fondamentaux de l'apprentissage automatique, y compris la classification, les algorithmes, l'optimisation, l'apprentissage supervisé, l'apprentissage par renforcement et diverses tâches telles que la reconnaissance d'images et la génération de texte.