Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore l'évolution des mécanismes d'attention vers les transformateurs dans les NLP modernes, en soulignant l'importance de l'auto-attention et de l'attention croisée.
Introduit les réseaux de mémoire à long terme (LSTM) comme une solution pour la disparition et l'explosion des gradients dans les réseaux neuronaux récurrents.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Explore la formation, l'optimisation et les considérations environnementales des réseaux neuronaux, avec des informations sur les clusters PCA et K-means.
Explore la séquence des modèles de séquence, les mécanismes d'attention et leur rôle dans le traitement des limites des modèles et l'amélioration de l'interprétation.
Introduit les marchés financiers, les séries chronologiques, les applications d'apprentissage automatique en finance et le traitement des langues naturelles.
Explore la convergence des réseaux neuronaux à travers l'adaptation des paramètres et l'alternance des regrets, en mettant l'accent sur l'événement NeurIPS 2023 à l'EPFL.
Couvre les faits stylisés du rendement des actifs, des statistiques sommaires, des tests de la normalité, des placettes Q-Q et des hypothèses de marché efficaces.