Couvre l'optimisation non convexe, les problèmes d'apprentissage profond, la descente stochastique des gradients, les méthodes d'adaptation et les architectures réseau neuronales.
Explore le transport optimal, la transformation de la lumière, l'optimisation de la conception inverse et l'analyse de sensibilité pour l'optimisation de la forme.
Couvre les bases d'optimisation, y compris l'optimisation sans contrainte et les méthodes de descente de gradient pour trouver des solutions optimales.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Discute de la descente de gradient stochastique et de son application dans l'optimisation non convexe, en se concentrant sur les taux de convergence et les défis de l'apprentissage automatique.
Explore la conception de la surface de réponse, en mettant l'accent sur le manque d'analyse de l'ajustement et de modèles quadratiques, avec des exemples pratiques dans Matlab.