Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore les algorithmes d'optimisation composite, y compris les opérateurs proximaux et les méthodes de gradient, avec des exemples et des limites théoriques.
Couvre la théorie et les applications de l'apprentissage machine contradictoire, en mettant l'accent sur l'optimisation minmax et la robustesse à des exemples contradictoires.
Introduit des opérateurs proximaux et des méthodes de gradient conditionnel pour les problèmes convexes composites de minimisation dans l'optimisation des données.
Explore les réseaux neuronaux formés sous la descente de gradient stochastique, discutant des couches cachées, de la fonction de perte carrée et de l'évolution des particules.
Explore les compromis d'optimisation, la réduction de la variance, la dimension statistique et l'analyse de convergence dans les algorithmes d'optimisation.
Explore les méthodes de gradient adaptatif comme AdaGrad, AcceleGrad et UniXGrad, en se concentrant sur leurs taux d'adaptation et de convergence locaux.