Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre l'accélération de la descente progressive, l'optimisation sans graduation, et leurs applications dans l'apprentissage automatique. Il traite de la vitesse de descente du gradient sur les fonctions convexes lisses, du concept de descente accélérée du gradient de Nesterov, des limites d'erreur, des fonctions potentielles et du taux de convergence pour la recherche aléatoire sans dérivé. En outre, il explore les méthodes d'adaptation et autres SGD comme Adagrad, Adam et SignSGD, en soulignant leurs avantages et leurs implications pratiques.