Séance de cours

Deep Learning III

Dans cours
DEMO: labore id
Deserunt deserunt occaecat esse cillum nisi pariatur duis non officia pariatur excepteur nisi in. Laboris amet dolore eu sunt deserunt ex dolore nulla ad sit deserunt commodo consectetur. Ea fugiat ipsum enim aute magna cupidatat officia aliqua. Nulla consequat veniam ad deserunt id Lorem quis fugiat amet veniam quis.
Connectez-vous pour voir cette section
Description

Cette séance de cours couvre la formulation d'optimisation des problèmes de formation en apprentissage profond, les défis rencontrés dans la formation des réseaux neuronaux et les concepts de la descente en gradient stochastique (SGD) et ses variantes. Il traite également des points critiques, de la propriété stricte de la selle et de la convergence de SGD vers les points critiques. En outre, il explore le paysage d'optimisation des réseaux neuronaux surparamétrés, le phénomène de surparamétrisation et les méthodes adaptatives stochastiques de premier ordre. La séance de cours se termine par une explication détaillée de l'algorithme de descente de gradient stochastique variable et des méthodes de gradient adaptatif.

Enseignant
officia in
Sint voluptate laboris excepteur non ad eiusmod nulla eiusmod proident eu qui elit. Velit magna incididunt id ad velit fugiat deserunt ullamco duis. Duis consectetur exercitation consectetur veniam aute cupidatat ut esse est. Ex amet nisi eiusmod aute sit. Aute duis sunt laboris nostrud proident amet est cillum consectetur ullamco quis anim nostrud velit. Nisi tempor consectetur mollit deserunt deserunt aliquip deserunt fugiat aliqua pariatur veniam ut.
Connectez-vous pour voir cette section
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Séances de cours associées (34)
Réseaux neuronaux : apprentissage multicouche
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Les principes fondamentaux de l'apprentissage profond
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Réseaux neuronaux : formation et optimisation
Explore la formation et l'optimisation des réseaux neuronaux, en abordant des défis tels que les fonctions de perte non convexes et les minima locaux.
Courbes de double descente : surparamétrisation
Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Apprentissage profond pour les véhicules autonomes: Apprentissage
Explore l'apprentissage en apprentissage profond pour les véhicules autonomes, couvrant les modèles prédictifs, RNN, ImageNet, et l'apprentissage de transfert.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.