Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Introduit les principes fondamentaux de l'optimisation convexe, en soulignant l'importance des fonctions convexes dans la simplification du processus de minimisation.
Sur Convex Optimization couvre l'organisation des cours, les problèmes d'optimisation mathématique, les concepts de solution et les méthodes d'optimisation.
Explore l'optimisation convexe, les fonctions convexes et leurs propriétés, y compris la convexité stricte et la convexité forte, ainsi que différents types de fonctions convexes comme les fonctions et les normes affines linéaires.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.