Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre les bases de la génération de texte et les défis de l'évaluation du texte généré à l'aide de mesures de chevauchement de contenu, de mesures fondées sur des modèles et d'évaluations humaines.
Déplacez-vous dans des représentations neuro-symboliques pour la connaissance du sens commun et le raisonnement dans les applications de traitement du langage naturel.
Explore les codeurs automatiques variables, l'inférence bayésienne, les espaces latents axés sur l'attention et l'efficacité des transformateurs dans le traitement des langues.
Explore les représentations neuro-symboliques pour comprendre les connaissances et le raisonnement communs, en mettant l'accent sur les défis et les limites de l'apprentissage profond dans le traitement du langage naturel.
Explore l'évolution des modèles d'intelligence visuelle, en mettant l'accent sur les Transformateurs et leurs applications dans la vision informatique et le traitement du langage naturel.
Explore l'apprentissage en apprentissage profond pour les véhicules autonomes, couvrant les modèles prédictifs, RNN, ImageNet, et l'apprentissage de transfert.
Explore les modèles Seq2Seq avec et sans mécanismes d'attention, couvrant l'architecture encodeur-décodeur, les vecteurs de contexte, les processus de décodage et les différents types de mécanismes d'attention.
Explore l'évolution des mécanismes d'attention vers les transformateurs dans les NLP modernes, en soulignant l'importance de l'auto-attention et de l'attention croisée.