Transformateurs Graph-to-Graph : Encodage graphique sensible à la syntaxe
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore les modèles Seq2Seq avec et sans mécanismes d'attention, couvrant l'architecture encodeur-décodeur, les vecteurs de contexte, les processus de décodage et les différents types de mécanismes d'attention.
Explore les représentations neuro-symboliques pour comprendre les connaissances et le raisonnement communs, en mettant l'accent sur les défis et les limites de l'apprentissage profond dans le traitement du langage naturel.
Déplacez-vous dans des représentations neuro-symboliques pour la connaissance du sens commun et le raisonnement dans les applications de traitement du langage naturel.
Explore les modèles de calcul du système visuel ventral, en se concentrant sur l'optimisation des réseaux pour les tâches réelles et la comparaison avec les données cérébrales.
Explore la convergence des réseaux neuronaux à travers l'adaptation des paramètres et l'alternance des regrets, en mettant l'accent sur l'événement NeurIPS 2023 à l'EPFL.
Déplacez-vous dans l'architecture Transformer, l'auto-attention et les stratégies de formation pour la traduction automatique et la reconnaissance d'image.