Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.
Explore l'indépendance et la probabilité conditionnelle dans les probabilités et les statistiques, avec des exemples illustrant les concepts et les applications pratiques.
Introduit la probabilité, les statistiques, les distributions, l'inférence, la probabilité et la combinatoire pour étudier les événements aléatoires et la modélisation en réseau.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.