Cette séance de cours couvre les méthodes de sous-gradient stochastique, la minimisation convexe composite et la régression clairsemée dans les modèles linéaires généralisés. Il introduit les opérateurs proximaux, les méthodes de gradient proximal et les méthodes de Frank-Wolfe. L'instructeur discute de l'analyse de convergence de ces méthodes et de leurs applications dans divers problèmes d'optimisation.