Cette séance de cours couvre l'introduction aux opérateurs proximaux, aux méthodes de gradient proximal, aux oracles de minimisation linéaire et à la méthode de gradient conditionnel pour l'optimisation contrainte. Il se penche sur des algorithmes tels que le schéma proximal-gradient (ISTA) et le schéma proximal-gradient rapide (FISTA). La convergence de ces méthodes dans les cas convexes et non convexes est discutée, ainsi que les complexités impliquées. En outre, la séance de cours explore la minimisation des composites convexes stochastiques, la méthode du gradient proximal stochastique et l’analyse de convergence sous diverses hypothèses. Des exemples tels que la minimisation composite dans le cas non convexe et la récupération de phase sont présentés pour illustrer les applications pratiques des méthodes discutées.