Couvre la méthode Markov Chain Monte Carlo et l'algorithme Metropolis-Hastings pour générer des échantillons à partir d'une distribution de probabilité cible.
Explore explicitement les méthodes de Runge-Kutta stabilisées et leur application aux problèmes inverses bayésiens, couvrant l'optimisation, l'échantillonnage et les expériences numériques.
Discute des concepts statistiques clés, y compris les dangers d'échantillonnage, les inégalités et le théorème de la limite centrale, avec des exemples pratiques et des applications.
Explore l'intégration Monte-Carlo pour approximer les attentes et les variances à l'aide d'échantillonnage aléatoire et discute des composants d'erreur dans les modèles de choix conditionnel.
Couvre les modèles générateurs en mettant l'accent sur l'auto-attention et les transformateurs, en discutant des méthodes d'échantillonnage et des moyens empiriques.