Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les concepts de descente en gradient, de convexe et de perte non convexe, de descente en gradient stochastique et d'arrêt précoce dans le contexte de la formation de réseaux neuraux. Il explique l'importance des petits poids au début de la descente du gradient, l'impact de l'augmentation de la perte de validation et la norme des paramètres pendant l'entraînement. La séance de cours se penche également sur les différences entre la descente standard et la descente stochastique du gradient, en mettant l'accent sur l'efficacité computationnelle de ce dernier. Diverses techniques et stratégies d'optimisation sont discutées, y compris l'utilisation de l'optimiseur ADAMW et le concept d'arrêt précoce comme forme de régularisation.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace