Séance de cours

Preuve stochastique de convergence de descente de gradient

Description

Cette séance de cours couvre la preuve de convergence de la descente de gradient stochastique (SGD) avec des fonctions fortement convexes. Il explique les étapes pour montrer la convergence par rapport à la solution optimale, en se concentrant sur la relation récursive entre les estimations. L'instructeur présente la dérivation des termes C et D, et discute du choix de a pour atteindre une limite convergente. La séance de cours conclut en analysant l'approche de l'algorithme à la limite limite et l'impact de l'utilisation d'une taille de pas décroissante sur les propriétés de convergence.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.