Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore les mathématiques des modèles de langues, couvrant la conception de l'architecture, la pré-formation et l'ajustement fin, soulignant l'importance de la pré-formation et de l'ajustement fin pour diverses tâches.
Couvre des modèles thématiques, en se concentrant sur l'allocation de Dirichlet latente, le regroupement, les MGM, la distribution de Dirichlet, l'apprentissage LDA et les applications en humanités numériques.
Discute de la distribution de Dirichlet, de l'inférence bayésienne, de la moyenne postérieure et de la variance, des antécédents conjugués et de la distribution prédictive dans le modèle de Dirichlet-Multinôme.
Couvre les bases de la génération de texte et les défis de l'évaluation du texte généré à l'aide de mesures de chevauchement de contenu, de mesures fondées sur des modèles et d'évaluations humaines.
Explore les codeurs automatiques variables, l'inférence bayésienne, les espaces latents axés sur l'attention et l'efficacité des transformateurs dans le traitement des langues.
Explore la génération de langage naturel, en mettant l'accent sur les systèmes de construction qui produisent un texte cohérent pour la consommation humaine à l'aide de diverses méthodes de décodage et de mesures d'évaluation.