Explore la réversibilité dans les chaînes de Markov et son impact sur la distribution stationnaire, en soulignant la complexité des chaînes non réversibles.
Couvre l'algorithme Metropolis-Hastings et les approches basées sur les gradients pour biaiser les recherches vers des valeurs de vraisemblance plus élevées.
Explore l'ergonomie et la distribution stationnaire dans les chaînes Markov, en mettant l'accent sur les propriétés de convergence et les distributions uniques.
Explore l'échantillonnage de rejet pour générer des valeurs d'échantillon à partir d'une distribution cible, ainsi que l'inférence bayésienne à l'aide de MCMC.
Couvre la probabilité appliquée, les chaînes de Markov et les processus stochastiques, y compris les matrices de transition, les valeurs propres et les classes de communication.