Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Explore les algorithmes d'apprentissage automatique distribués, les méthodes adaptatives pour les modèles d'attention, l'apprentissage collaboratif et les problèmes ouverts sur le terrain.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Explore les fondamentaux de l'apprentissage profond, y compris la classification de l'image, les principes de travail du réseau neuronal et les défis de l'apprentissage automatique.
Couvre les moments, la variance et les valeurs attendues dans les probabilités et les statistiques, y compris la distribution des jetons dans un produit.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Discute de la différenciation automatique, en mettant l'accent sur la différenciation en mode inverse pour optimiser les filtres de couche convolutifs par descente de gradient.