Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur GraphSearch.
Cette séance de cours de l'instructeur couvre l'analyse de descente par gradient sur de larges réseaux neuraux ReLU à deux couches. En commençant par des concepts d'apprentissage supervisés, il s'oriente vers le flux de gradient du risque empirique et la dynamique dans la limite de largeur infinie. La présentation explore la convergence mondiale, les cas régularisés et non régularisés et la régularisation implicite. Au moyen d'illustrations et d'expériences numériques, la séance de cours démontre la régularisation implicite de la classification linéaire et des réseaux neuraux. Les résultats théoriques sur l'efficacité statistique et deux régularisations implicites dans une dynamique sont discutés, conduisant à des perspectives sur des modèles mathématiques pour des réseaux plus profonds et la quantification de la vitesse de convergence.
Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Regarder sur Mediaspace