Explore explicitement les méthodes de Runge-Kutta stabilisées et leur application aux problèmes inverses bayésiens, couvrant l'optimisation, l'échantillonnage et les expériences numériques.
Sur Convex Optimization couvre l'organisation des cours, les problèmes d'optimisation mathématique, les concepts de solution et les méthodes d'optimisation.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Introduit l'optimisation convexe, couvrant les ensembles convexes, les concepts de solution et les méthodes numériques efficaces en optimisation mathématique.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Couvre les méthodes de recherche de racines, en se concentrant sur les techniques de bisection et de sécante, leurs implémentations et les comparaisons de leurs taux de convergence.
Discute des différences finies et des éléments finis, en se concentrant sur la formulation variationnelle et les méthodes numériques dans les applications d'ingénierie.
Couvre les bases de la géomécanique computationnelle, y compris la poroélasticité, la plasticité et les méthodes numériques pour résoudre les problèmes géotechniques.