Explore la sélection des modèles dans la régression des moindres carrés, en abordant les défis de multicollinéarité et en introduisant des techniques de rétrécissement.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.
Explore la construction de modèles dans la régression linéaire, couvrant des techniques comme la régression par étapes et la régression par crête pour traiter la multicolinéarité.