Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.
Explore l'apprentissage supervisé en mettant l'accent sur les méthodes de régression, y compris l'ajustement des modèles, la régularisation, la sélection des modèles et l'évaluation du rendement.
Couvre les bases de la régression linéaire, la méthode OLS, les valeurs prédites, les résidus, la notation matricielle, la bonté d'adaptation, les tests d'hypothèse et les intervalles de confiance.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore l'hétéroskédasticité en économétrie, en discutant de son impact sur les erreurs standard, les estimateurs alternatifs, les méthodes d'essai et les implications pour les tests d'hypothèses.