Introduit la modélisation fondée sur les données en mettant l'accent sur la régression, couvrant la régression linéaire, les risques de raisonnement inductif, l'APC et la régression des crêtes.
Explore les principes fondamentaux de la régression linéaire, en soulignant limportance des techniques de régularisation pour améliorer la performance du modèle.
Explore l'explication géométrique des raisons pour lesquelles les solutions Lasso sont rares et comment les coefficients changent avec le paramètre de régularisation.
Introduit une régression linéaire simple, les propriétés des résidus, la décomposition de la variance et le coefficient de détermination dans le contexte de la loi d'Okun.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Explore les méthodes du noyau dans l'apprentissage automatique, en mettant l'accent sur leur application dans les tâches de régression et la prévention du surajustement.