Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre le concept de descente du gradient stochastique, où l'algorithme choisit un point initial et le met à jour en utilisant des gradients stochastiques. Il traite de l'impartialité, de la convexité et de la comparaison avec la descente en gradient complet. La séance de cours explore également le taux de convergence, les gradients stochastiques limités, et les implications d'une forte convexité. En outre, il se penche sur les défis de la descente en gradient dans le monde non convexe et les avantages de la descente en gradient stochastique mini-batch. Le contenu s'étend aux fonctions lisses, aux Hessiens délimités, et à la convergence de descente de gradient sur les fonctions lisses. La séance de cours se termine par des idées sur le comportement de descente de gradient dans l'optimisation non convexe.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace