Passer au contenu principal
Graph
Search
fr
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Gradient Descent: Opérateur proximal et stratégies de taille progressive
Graph Chatbot
Séances de cours associées (29)
Précédent
Page 3 sur 3
Suivant
Descente Coordonnée: Techniques d'Optimisation Efficace
Couvre la descente des coordonnées, une méthode pour optimiser les fonctions en mettant à jour une coordonnée à la fois.
Série Dirichlet
Explore les propriétés de convergence de la série Dirichlet et les conditions de convergence absolue, avec des exemples et des applications.
Opérateur proximal et descente progressive
Couvre les opérateurs proximaux, la descente en gradient, les conditions d'optimalité et l'analyse de convergence dans les problèmes d'optimisation.
Méthodes de graduation adaptative: Partie 1
Explore les méthodes de gradient adaptatif et leur impact sur les scénarios d'optimisation, y compris AdaGrad, ADAM et RMSprop.
Descente proximale et sous-gradiente : techniques d’optimisation
Discute des méthodes de descente proximale et sous-gradiente pour l'optimisation dans l'apprentissage automatique.
Gradient Descent: Techniques d'optimisation
Explore la descente en gradient, les fonctions de perte et les techniques d'optimisation dans la formation en réseau neuronal.
Méthodes Quasi-Newton
Présente les méthodes Quasi-Newton pour l'optimisation, expliquant leurs avantages par rapport aux approches traditionnelles comme Gradient Descent et Newton's Method.
Optimisation des taux de convergence: descente progressive accélérée
Explore l'optimalité des taux de convergence dans les problèmes de minimisation convexe en utilisant des méthodes de descente accélérée des gradients.
Convergence monotone : le lemme de Fatou
Explore la convergence monotone, la convergence dominée et le lemme de Fatou avec des exemples pratiques.