Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Explore les noyaux de régression de processus gaussien, les coûts de calcul et les comparaisons avec la régression de crête et d'autres techniques de régression non linéaire.
Explore les méthodes de régularisation dans les réseaux neuronaux, en soulignant l'importance des bases d'entraînement et de validation pour éviter les surajustements.
Explore le surajustement, la régularisation et la validation croisée dans l'apprentissage automatique, en soulignant l'importance de la complexité du modèle et des différentes méthodes de validation croisée.
Explore l'apprentissage supervisé en économétrie financière, couvrant la régression linéaire, l'ajustement du modèle, les problèmes potentiels, les fonctions de base, la sélection de sous-ensembles, la validation croisée, la régularisation et les forêts aléatoires.