Le paysage d'optimisation de Convex caché des réseaux neuronaux profonds
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Couvre une introduction mathématique à l'apprentissage profond, y compris les défis, la puissance des classificateurs linéaires, l'échelle du modèle et les aspects théoriques.
Introduit les bases de l'apprentissage profond, couvrant les réseaux neuronaux, les CNN, les couches spéciales, l'initialisation du poids, le prétraitement des données et la régularisation.
Plonge dans la propagation en arrière dans l'apprentissage profond, répondant au défi de la disparition du gradient et à la nécessité d'unités cachées efficaces.
Explore l'optimalité des taux de convergence dans l'optimisation convexe, en mettant l'accent sur la descente accélérée des gradients et les méthodes d'adaptation.
Introduit des perceptrons multicouches (MLP) et couvre la régression logistique, la reformulation, la descente de gradient, AdaBoost et les applications pratiques.