Séance de cours

Réseaux de neurones artificiels et apprentissage profond: paysage de perte et méthodes d'optimisation

Description

Cette séance de cours couvre le paysage de la fonction d'erreur, les minima, les points de selle, l'optimiseur ADAM et le théorème No Free Lunch dans le contexte des réseaux de neurones artificiels. Il discute également des différences entre les réseaux peu profonds et profonds, de la tâche des neurones cachés et des méthodes d'optimisation de la descente de gradient.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.