Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
Couvre les techniques de réduction de la variance dans l'optimisation, en mettant l'accent sur la descente en gradient et les méthodes de descente en gradient stochastique.
Explore l'histoire, la théorie et les applications du transport optimal dans différents domaines, montrant son importance dans la résolution de problèmes mathématiques complexes.
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.
Démontre que les élèves utilisent Aseba Studio pour apprendre les bases de la programmation et de la pensée computationnelle à travers des activités liées aux mathématiques.