Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Introduit l'optimisation convexe, couvrant les ensembles convexes, les concepts de solution et les méthodes numériques efficaces en optimisation mathématique.
Explore l'optimisation robuste par l'approximation polynôme et les ensembles d'incertitude, y compris des programmes linéaires robustes et des astuces d'optimisation.
Explore les problèmes d'optimisation convexe, les critères d'optimalité, les problèmes équivalents et les applications pratiques dans le transport et la robotique.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Couvre le débruitage et la reconstruction d'images en utilisant une minimisation totale des variations et discute des effets visuels des différentes forces de régularisation.