Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Explore les bases de l'optimisation telles que les normes, la convexité et la différentiabilité, ainsi que les applications pratiques et les taux de convergence.
Explore les méthodes d'optimisation primal-dual, en mettant l'accent sur les techniques de gradient lagrangien et leurs applications dans l'optimisation des données.
Explore la dualité conjuguée dans l'optimisation convexe, couvrant les hyperplans faibles et soutenants, les sous-gradients, l'écart de dualité et les conditions de dualité fortes.