Passer au contenu principal
Graph
Search
fr
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Descente progressive stochastique: Techniques d'optimisation
Graph Chatbot
Séances de cours associées (25)
Précédent
Page 3 sur 3
Suivant
Optimisation du taux de convergence : accélération de la descente en gradient
Explore l'optimalité du taux de convergence dans les techniques de descente de gradient et d'accélération pour les problèmes convexes et non convexes.
Techniques d'optimisation: fonctions de descente de gradient et convexes
Fournit un aperçu des techniques d'optimisation, en se concentrant sur la descente de gradient et les propriétés des fonctions convexes dans l'apprentissage automatique.
Optimisation avec contraintes : conditions KKT
Couvre les conditions KKT pour l'optimisation avec des contraintes, essentielles pour résoudre efficacement les problèmes d'optimisation.
Optimisation du convex
Introduit l'optimisation convexe, en mettant l'accent sur l'importance de la convexité dans les algorithmes et les problèmes d'optimisation.
Descente stochastique progressive
Explore l'optimisation stochastique de descente de gradient et la méthode Mean-Field dans les réseaux neuronaux.