Couvre l'estimation conditionnelle maximale de la probabilité, la contribution à la probabilité et l'application du modèle de VEM dans les échantillons fondés sur le choix.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.
Explore linférence de vraisemblance maximale, comparant les modèles basés sur les ratios de vraisemblance et démontrant avec un exemple de pièce de monnaie.
Explore les modèles de mélange gaussien pour la classification des données, en mettant l'accent sur la dénigrement des signaux et l'estimation des données originales à l'aide des approches de probabilité et a posteriori.
Explore la modélisation des signaux neurobiologiques avec les chaînes Markov, en mettant l'accent sur l'estimation des paramètres et la classification des données.