Séance de cours

Optimisation pour le Machine Learning: Descente plus rapide

Description

Cette séance de cours couvre le concept de descente de gradient plus rapide dans l'optimisation pour l'apprentissage automatique, en mettant l'accent sur la descente de gradient projetée. Il examine la possibilité d'une diminution exponentielle de l'erreur, de fonctions fortement convexes et de l'application d'une descente projetée du gradient dans des problèmes d'optimisation limitée. La séance de cours explore également les propriétés de la projection, les fonctions de Lipschitz convex et l'efficacité de la descente de gradient sur les ensembles fermés et convexes.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.