Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Introduit des opérateurs proximaux, des méthodes de gradient et une optimisation contrainte, explorant leur convergence et leurs applications pratiques.
Explore les biais implicites, la descente de gradient, la stabilité dans les algorithmes d'optimisation et les limites de généralisation dans l'apprentissage automatique.
Explore l'apprentissage machine contradictoire, couvrant la génération d'exemples contradictoires, les défis de robustesse et des techniques telles que la méthode Fast Gradient Sign.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Explore la descente de gradient stochastique, couvrant les taux de convergence, l'accélération et les applications pratiques dans les problèmes d'optimisation.
Explore les algorithmes d'optimisation composite, y compris les opérateurs proximaux et les méthodes de gradient, avec des exemples et des limites théoriques.
Explore les méthodes d'optimisation primal-dual, en mettant l'accent sur les techniques de gradient lagrangien et leurs applications dans l'optimisation des données.