Explique le processus de recherche d'une solution réalisable de base initiale pour les problèmes d'optimisation linéaire à l'aide de l'algorithme Simplex.
Couvre les méthodes de descente de gradient pour les problèmes convexes et non convexes, y compris la minimisation convexe lisse sans contrainte, lestimation de la vraisemblance maximale, et des exemples comme la régression de crête et la classification dimage.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Explore la somme des polynômes carrés et la programmation semi-définie dans l'optimisation polynomiale, permettant l'approximation des polynômes non convexes avec SDP convexe.
Explore la dualité lagrangienne dans l'optimisation convexe, en discutant de la dualité forte, des solutions duales et des applications pratiques dans les programmes de cônes de second ordre.