Passer au contenu principal
Graph
Search
fr
|
en
Se Connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Analyse des régions de confiance avec des étapes de Cauchy
Graph Chatbot
Séances de cours associées (28)
Précédent
Page 2 sur 3
Suivant
Proximal Gradient Descent: Techniques d'optimisation dans l'apprentissage automatique
Discute de la descente du gradient proximal et de ses applications dans l'optimisation des algorithmes d'apprentissage automatique.
Méthodes d'optimisation
Couvre les méthodes d'optimisation sans contraintes, y compris la recherche de gradient et de ligne dans le cas quadratique.
Analyse du degré de liberté
Explore le degré d'analyse de la liberté, la redondance et la réconciliation des données dans la modélisation et l'optimisation des processus.
Optimisation non linéaire
Couvre la recherche en ligne, la méthode de Newton, BFGS et le gradient conjugué en optimisation non linéaire.
Faire confiance aux méthodes de la région: framework & algorithmes
Couvre les méthodes de la région de confiance, en se concentrant sur le cadre et les algorithmes.
Méthode locale de Newton : l'interprétation géométrique
Explore l'interprétation géométrique de la méthode de Newton dans les problèmes d'optimisation.
Gradient Descent: Optimisation et contraintes
Discute de la descente en gradient pour l'optimisation avec des contraintes d'égalité et des critères itératifs de convergence.
Descente de gradient stochastique : analyse d’optimisation et de convergence
Explore la descente de gradient stochastique pour les fonctions non fortement convexes et l'impact de la taille des pas sur la convergence.
Méthodes de recherche de racines: méthodes de Secant et Newton
Couvre les méthodes numériques de recherche de racines, en se concentrant sur les méthodes de Newton et de la sécante.
Primal-dual Optimization: Algorithmes et Convergence
Explore les algorithmes d'optimisation primal-dual pour les problèmes de minimax convexe-concave, en discutant des propriétés de convergence et des applications.