Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Explore les algorithmes d'optimisation composite, y compris les opérateurs proximaux et les méthodes de gradient, avec des exemples et des limites théoriques.
Couvre les techniques de réduction de la variance dans l'optimisation, en mettant l'accent sur la descente en gradient et les méthodes de descente en gradient stochastique.
Plongez dans l'optimisation du deep learning, les défis, les variantes SGD, les points critiques, les réseaux surparamétrés et les méthodes adaptatives.
Couvre la théorie et les applications de l'apprentissage machine contradictoire, en mettant l'accent sur l'optimisation minmax et la robustesse à des exemples contradictoires.
Introduit la formule de sommation d'Abel et son application dans l'établissement de diverses formulations équivalentes de la théorie des nombres premiers.
Explore l'apprentissage par machine contradictoire, les réseaux d'adversaires génériques et les défis des exemples d'adversaires dans l'optimisation des données.
Explore l'apprentissage machine contradictoire, couvrant la génération d'exemples contradictoires, les défis de robustesse et des techniques telles que la méthode Fast Gradient Sign.
Explore les compromis d'optimisation, la réduction de la variance, la dimension statistique et l'analyse de convergence dans les algorithmes d'optimisation.