Séance de cours

Gradient Descent sur les réseaux neuraux ReLU à deux niveaux

Description

Cette séance de cours de l'instructeur couvre l'analyse de descente par gradient sur de larges réseaux neuraux ReLU à deux couches. En commençant par des concepts d'apprentissage supervisés, il s'oriente vers le flux de gradient du risque empirique et la dynamique dans la limite de largeur infinie. La présentation explore la convergence mondiale, les cas régularisés et non régularisés et la régularisation implicite. Au moyen d'illustrations et d'expériences numériques, la séance de cours démontre la régularisation implicite de la classification linéaire et des réseaux neuraux. Les résultats théoriques sur l'efficacité statistique et deux régularisations implicites dans une dynamique sont discutés, conduisant à des perspectives sur des modèles mathématiques pour des réseaux plus profonds et la quantification de la vitesse de convergence.

Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.

Regarder sur Mediaspace
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.