Séance de cours

Deep Learning III

Dans cours
DEMO: incididunt pariatur
Magna ea nostrud aliquip et esse. Ea culpa consequat cupidatat incididunt do deserunt. Laboris quis Lorem est tempor irure exercitation fugiat occaecat elit. Aliquip culpa cupidatat ullamco labore aliqua voluptate quis. Qui sunt pariatur laboris consequat est dolore id mollit. Nostrud fugiat dolore ullamco ex nulla incididunt culpa officia eiusmod. Dolor laborum sunt pariatur ullamco ex commodo mollit enim commodo.
Connectez-vous pour voir cette section
Description

Cette séance de cours couvre la formulation d'optimisation des problèmes de formation en apprentissage profond, les défis rencontrés dans la formation des réseaux neuronaux et les concepts de la descente en gradient stochastique (SGD) et ses variantes. Il traite également des points critiques, de la propriété stricte de la selle et de la convergence de SGD vers les points critiques. En outre, il explore le paysage d'optimisation des réseaux neuronaux surparamétrés, le phénomène de surparamétrisation et les méthodes adaptatives stochastiques de premier ordre. La séance de cours se termine par une explication détaillée de l'algorithme de descente de gradient stochastique variable et des méthodes de gradient adaptatif.

Enseignant
id in ex deserunt
Qui ea ut exercitation pariatur. In laborum do quis id voluptate reprehenderit elit. Dolor enim veniam dolore sit ipsum minim est nostrud ut quis. Minim mollit sint fugiat dolor do ad enim ipsum voluptate culpa est labore officia ex. Enim laboris excepteur ut magna aliquip ea cillum.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (34)
Réseaux neuronaux : apprentissage multicouche
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Les principes fondamentaux de l'apprentissage profond
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Réseaux neuronaux : formation et optimisation
Explore la formation et l'optimisation des réseaux neuronaux, en abordant des défis tels que les fonctions de perte non convexes et les minima locaux.
Courbes de double descente : surparamétrisation
Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Apprentissage profond pour les véhicules autonomes: Apprentissage
Explore l'apprentissage en apprentissage profond pour les véhicules autonomes, couvrant les modèles prédictifs, RNN, ImageNet, et l'apprentissage de transfert.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.