Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les méthodes de gradient adaptatif telles que AdaGrad, RMSProp, AcceleGrad et ADAM, expliquant leurs stratégies d'adaptation, leurs ajustements par pas et leurs propriétés de convergence. Il traite également de la régularisation implicite de ces méthodes, de leurs performances de généralisation et de leur comparaison avec les algorithmes d'optimisation traditionnels. La présentation se termine par un aperçu des architectures de réseaux neuronaux et des recherches en cours sur les méthodes d’optimisation.