Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre le concept d'optimisation dans l'apprentissage automatique, en mettant l'accent sur l'algorithme Gradient Descent. Il explique comment minimiser une fonction de coût en actualisant itérativement les paramètres dans la direction opposée du gradient. La séance de cours traite des défis de la recherche de grands espaces de paramètres par grille et introduit le concept de descente par gradient pour trouver les paramètres optimaux. Il s'inscrit également dans la motivation théorique derrière l'algorithme, l'utilisation de la descente stochastique du gradient, et le rôle des subgradients dans l'optimisation non-smooth.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace