Séance de cours

Descente graduée pour MSE linéaire

Description

Cette séance de cours couvre le concept de Gradient Descent for Linear Mean Squared Error (MSE) dans l'apprentissage automatique. Il explique le calcul du gradient, la complexité du calcul du gradient, et la variante avec un terme offset. La séance de cours se penche également sur la descente progressive stochastique, l'utilisation de fonctions de pénalité pour l'optimisation limitée, et les questions de mise en œuvre telles que la sélection adaptative des étapes et la normalisation des caractéristiques. De plus, il traite de l'optimisation non convexe, des critères d'arrêt, des conditions d'optimisation et de la transformation des problèmes limités en problèmes non restreints.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.