Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.