Explore les bases de l'optimisation telles que les normes, la convexité et la différentiabilité, ainsi que les applications pratiques et les taux de convergence.
Couvre les concepts essentiels de l'algèbre linéaire pour l'optimisation convexe, y compris les normes vectorielles, la décomposition des valeurs propres et les propriétés matricielles.
Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Fournit un examen des concepts d'algèbre linéaire cruciaux pour l'optimisation convexe, couvrant des sujets tels que les normes vectorielles, les valeurs propres et les matrices semi-définies positives.
Explore les méthodes de descente de gradient pour les problèmes convexes lisses et non convexes, couvrant les stratégies itératives, les taux de convergence et les défis d'optimisation.
Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.