Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore les représentations neuro-symboliques pour comprendre les connaissances et le raisonnement communs, en mettant l'accent sur les défis et les limites de l'apprentissage profond dans le traitement du langage naturel.
Explore l'évolution des mécanismes d'attention vers les transformateurs dans les NLP modernes, en soulignant l'importance de l'auto-attention et de l'attention croisée.
Explore le développement d'intégrations contextuelles dans le NLP, en mettant l'accent sur les progrès réalisés par ELMo et BERT et son impact sur les tâches du NLP.
Explore les codeurs automatiques variables, l'inférence bayésienne, les espaces latents axés sur l'attention et l'efficacité des transformateurs dans le traitement des langues.
Explore les modèles Seq2Seq avec et sans mécanismes d'attention, couvrant l'architecture encodeur-décodeur, les vecteurs de contexte, les processus de décodage et les différents types de mécanismes d'attention.
Couvre les bases de la génération de texte et les défis de l'évaluation du texte généré à l'aide de mesures de chevauchement de contenu, de mesures fondées sur des modèles et d'évaluations humaines.
Explore l'impact de l'apprentissage profond sur les humanités numériques, en se concentrant sur les systèmes de connaissances non conceptuels et les progrès récents de l'IA.