Couvre l'optimisation non convexe, les problèmes d'apprentissage profond, la descente stochastique des gradients, les méthodes d'adaptation et les architectures réseau neuronales.
Explore le transport optimal, la transformation de la lumière, l'optimisation de la conception inverse et l'analyse de sensibilité pour l'optimisation de la forme.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Couvre les bases d'optimisation, y compris l'optimisation sans contrainte et les méthodes de descente de gradient pour trouver des solutions optimales.