Séance de cours

Optimisation : Descente progressive

Description

Cette séance de cours couvre le concept d'optimisation dans l'apprentissage automatique, en mettant l'accent sur l'algorithme Gradient Descent. Il explique comment minimiser une fonction de coût en actualisant itérativement les paramètres dans la direction opposée du gradient. La séance de cours traite des défis de la recherche de grands espaces de paramètres par grille et introduit le concept de descente par gradient pour trouver les paramètres optimaux. Il s'inscrit également dans la motivation théorique derrière l'algorithme, l'utilisation de la descente stochastique du gradient, et le rôle des subgradients dans l'optimisation non-smooth.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.