Comprendre l'apprentissage automatique : des modèles parfaitement solubles
Séances de cours associées (172)
Graph Chatbot
Chattez avec Graph Search
Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.
AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.
Plongez dans les bases de l'apprentissage par renforcement, en discutant des états, des actions, des récompenses, des politiques et des applications de réseaux neuronaux.
Explore les raisons de l'abondance des points de selle dans l'optimisation de l'apprentissage en profondeur, en mettant l'accent sur les arguments statistiques et géométriques.
Plonge dans la propagation en arrière dans l'apprentissage profond, répondant au défi de la disparition du gradient et à la nécessité d'unités cachées efficaces.
Déplacez-vous dans l'informatique optique en utilisant la diffusion de la lumière pour les tâches d'apprentissage automatique, en explorant la façonnage de front d'onde et les outils de calcul.
Explore l'optimisation non convexe dans l'apprentissage profond, couvrant les points critiques, la convergence SGD, les points de selle et les méthodes de gradient adaptatif.
Explore comment les architectures modernes ont vaincu la malédiction de la dimensionnalité et l'importance de la stabilité dans les modèles d'apprentissage en profondeur.
Couvre les techniques de réduction de la variance dans l'optimisation, en mettant l'accent sur la descente en gradient et les méthodes de descente en gradient stochastique.
Explore les techniques de réduction de la variance dans l'apprentissage profond, couvrant la descente en gradient, la descente en gradient stochastique, la méthode SVRG, et la comparaison des performances des algorithmes.