Séance de cours

Descente de gradient stochastique : analyse d’optimisation et de convergence

Description

Cette séance de cours couvre la méthode d'optimisation de la descente de gradient stochastique (SGD) pour minimiser les fonctions non fortement convexes. Il explique le taux de convergence des itérations SGD et l'impact de la taille des pas sur la convergence. La séance de cours traite également de la fonction de perte Huber modifiée et de son calcul, ainsi que de la taille de pas optimale pour exécuter SGD afin de minimiser cette perte. Différents comportements de convergence sont comparés et expliqués, mettant en lumière les différences observées dans différents scénarios.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.