Cette séance de cours couvre un ensemble diversifié d'approches de régularisation, y compris la quasi-norme L0 et la méthode Lasso. Il traite de la meilleure sélection de sous-ensembles, du compromis entre l'ajustement et le nombre de variables, et de la dureté NP du problème. Le Lasso, ou opérateur de rétrécissement et de sélection le moins absolu, est présenté comme un problème d'optimisation convexe mais non différentiable avec des algorithmes efficaces pour la solution. La séance de cours explore également l'extension aux quasi-normes et la différence entre les problèmes de régression Lasso contraints et régularisés.