Cette séance de cours couvre la déficience des modèles lisses, la sparsity, la détection compressive, les normes atomiques, et la minimisation non lisse en utilisant la descente de sous-gradient. Il explore les motivations d'apprentissage statistique pour l'optimisation non lisse, la régression linéaire et l'évaluation pratique des performances. La séance de cours se penche sur les modèles de signaux clairsemés, les signaux compressibles et la sparsité structurée. Il traite des fonctions de jauge, des normes atomiques et du problème d'optimisation du Lasso. En outre, il examine les performances du Lasso, les problèmes de faisabilité multi-sac à dos et la sélection des paramètres dans les problèmes d'optimisation. La séance de cours se termine par une minimisation convexe non-contrainte, des sous-différentiels, des méthodes de sous-gradient stochastique et une minimisation convexe composite.