Explore le mécanisme d'attention dans la traduction automatique, en s'attaquant au problème du goulot d'étranglement et en améliorant considérablement les performances NMT.
Introduit des concepts d'apprentissage profond pour les NLP, couvrant l'intégration de mots, les RNN et les Transformateurs, mettant l'accent sur l'auto-attention et l'attention multi-têtes.
Explore la recherche de documents, la classification, l'analyse des sentiments, les matrices TF-IDF, les méthodes de voisinage les plus proches, la factorisation matricielle, la régularisation, LDA, les vecteurs de mots contextualisés et BERT.
Explore les grammaires formelles, les algorithmes d'analyse, l'efficacité de l'algorithme CYK et la correction syntaxique dans le traitement du langage naturel.
Introduit le traitement du langage naturel (NLP) et ses applications, couvrant la tokenisation, l'apprentissage automatique, l'analyse du sentiment et les applications NLP suisses.
Présente des modèles de langage classiques, leurs applications et des concepts fondamentaux tels que la modélisation et les mesures d'évaluation basées sur le nombre.
Explore les mots, les jetons et les modèles de langage en PNL, couvrant les défis liés à leur définition, à l'utilisation du lexique, aux n-grammes et à l'estimation des probabilités.
Couvre les modèles de séquence à séquence, leur architecture, leurs applications et le rôle des mécanismes d'attention dans l'amélioration des performances.
Explore la capacité d'interprétation des modèles dans les PNL, en se concentrant sur les méthodes d'analyse et les explications locales pour comprendre les prédictions des modèles.