Séance de cours

Descente proximale et subgradiente

Description

Cette séance de cours couvre les techniques d'optimisation pour l'apprentissage automatique, en mettant l'accent sur les méthodes Proximal et Subgradient Descent. Il explique le concept de descente proximale du gradient, l'équivalence des problèmes limités et non contraints, et l'utilisation de subgradients pour des fonctions non dissociables. La séance de cours se penche également sur les problèmes d'optimisation composite, l'analyse de convergence et les conditions d'optimalité pour la descente des sous-gradants. En outre, il examine les taux de convergence des fonctions convexes de Lipschitz et l'importance d'une forte convexité pour parvenir à une convergence plus rapide.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.