Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre la preuve de convergence de la descente de gradient stochastique (SGD) avec des fonctions fortement convexes. Il explique les étapes pour montrer la convergence par rapport à la solution optimale, en se concentrant sur la relation récursive entre les estimations. L'instructeur présente la dérivation des termes C et D, et discute du choix de a pour atteindre une limite convergente. La séance de cours conclut en analysant l'approche de l'algorithme à la limite limite et l'impact de l'utilisation d'une taille de pas décroissante sur les propriétés de convergence.