Passer au contenu principal
Graph
Search
fr
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Opérateurs proximaux et optimisation contrainte
Graph Chatbot
Séances de cours associées (26)
Précédent
Page 3 sur 3
Suivant
Principes de base de l'optimisation : normes, convexité, différentiabilité
Explore les bases de l'optimisation telles que les normes, la convexité et la différentiabilité, ainsi que les applications pratiques et les taux de convergence.
Structures dans l'optimisation non convexe
Se penche sur les structures en optimisation non convexe, en mettant l'accent sur l'optimisation évolutive pour le deep learning.
KKT et optimisation convexe
Couvre les conditions KKT et l'optimisation convexe, en discutant des qualifications de contraintes et des cônes tangents des ensembles convexes.
Proximal Gradient Descent: Techniques d'optimisation dans l'apprentissage automatique
Discute de la descente du gradient proximal et de ses applications dans l'optimisation des algorithmes d'apprentissage automatique.
De la descente progressive stochastique à l'optimisation non lissée
Couvre l'optimisation stochastique, la sparsité et la minimisation non lisses par descente subgradielle.
Optimisation non convexe : techniques et applications
Couvre les techniques d'optimisation non convexes et leurs applications dans l'apprentissage automatique.