Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.
Explore l'application de Maximum Likelihood Estimation dans les modèles à choix binaire, couvrant les modèles probit et logit, la représentation des variables latentes et les tests de spécification.
Explore la régression logistique, les fonctions de coût, la descente en gradient et la modélisation de probabilité à l'aide de la fonction sigmoïde logistique.