Descente de gradient stochastique: techniques d'optimisation non convexes
Séances de cours associées (27)
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Explore coordonner les stratégies d'optimisation de descente, en mettant l'accent sur la simplicité dans l'optimisation grâce à des mises à jour coordonnées et en discutant des implications des différentes approches.
Couvre les bases de la programmation non linéaire et ses applications dans le contrôle optimal, en explorant des techniques, des exemples, des définitions d'optimalité et les conditions nécessaires.
Explorer l'analyse de la pollution atmosphérique à l'aide de données sur le vent, de distributions de probabilités et de modèles de trajectoire pour l'évaluation de la qualité de l'air.
Explore l'apprentissage machine contradictoire, couvrant la génération d'exemples contradictoires, les défis de robustesse et des techniques telles que la méthode Fast Gradient Sign.
Explore les probabilités avancées, les variables aléatoires et les valeurs attendues, avec des exemples pratiques et des quiz pour renforcer l'apprentissage.