Explore l'influence de la linguistique computationnelle sur les architectures d'apprentissage profond, couvrant les formalismes grammaticaux, le connexionnisme, la liaison variable et les orientations futures.
Couvre les principes fondamentaux de l'apprentissage profond, y compris les données, l'architecture et les considérations éthiques dans le déploiement de modèles.
Explore l'évolution de la modélisation clairsemée à la communication clairsemée dans les réseaux neuronaux pour les tâches de traitement du langage naturel.
Couvre l'architecture du transformateur, en se concentrant sur les modèles codeurs-décodeurs et les mécanismes d'attention subquadratiques pour un traitement efficace des séquences d'entrée.