Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
Couvre les techniques de réduction de la variance dans l'optimisation, en mettant l'accent sur la descente en gradient et les méthodes de descente en gradient stochastique.
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.
Explore les copules dans les statistiques multivariées, couvrant les propriétés, les erreurs et les applications dans la modélisation des structures de dépendance.