Explore la méthode lagrangienne augmentée avec des contraintes d'égalité et d'inégalité dans l'optimisation, en soulignant l'importance des variables slack.
Explore les machines vectorielles de support, maximisant la marge pour une classification robuste et la transition vers la SVM logicielle pour les données séparables non linéairement.
Explore l'importance des contraintes actives dans l'optimisation linéaire, en montrant comment elles influencent la simplification des problèmes en se concentrant sur les contraintes pertinentes.
Explore la dualité lagrangienne dans l'optimisation convexe, transformant les problèmes en formulations min-max et discutant de l'importance des solutions doubles.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.