Couvre la théorie et les exemples de matrices de diagonalisation, en se concentrant sur les valeurs propres, les vecteurs propres et lindépendance linéaire.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Explore explicitement les méthodes de Runge-Kutta stabilisées et leur application aux problèmes inverses bayésiens, couvrant l'optimisation, l'échantillonnage et les expériences numériques.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.