Séance de cours

Descente de gradient stochastique : optimisation et convergence

Description

Cette séance de cours couvre l'optimalité du taux de convergence, l'accélération et l'application de la descente de gradient stochastique dans les problèmes d'optimisation. En commençant par les bases de la descente en pente, l'instructeur explique le processus itératif et les critères de convergence. La séance de cours se penche ensuite sur la descente de gradient stochastique (SGD), détaillant sa mise en œuvre, ses avantages et ses propriétés de convergence. Différents scénarios, y compris les problèmes convexes et non convexes, sont discutés, ainsi que l'impact des tailles de pas sur les taux de convergence. La présentation explore également des exemples pratiques, tels que l'optimisation convexe avec des sommes finies et des problèmes synthétiques de moindres carrés. En outre, la séance de cours présente des sujets avancés tels que les variantes SGD, SGD avec la moyenne et les méthodes adaptatives pour l'optimisation stochastique, fournissant des informations sur leurs applications et les garanties de convergence.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.