Explore les tests de spécification, l'apprentissage automatique, le surajustement, la régularisation, les tests de prédiction et la sélection de variables.
Introduit des opérateurs proximaux et des méthodes de gradient conditionnel pour les problèmes convexes composites de minimisation dans l'optimisation des données.
Explore l'explication géométrique des raisons pour lesquelles les solutions Lasso sont rares et comment les coefficients changent avec le paramètre de régularisation.
Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.