Cette séance de cours couvre les bases de l'optimisation, y compris les définitions des métriques, des normes vectorielles, des normes matricielles et de la convexité. Il traite de la continuité, de la différentiabilité, des gradients et des fonctions convexes. La séance de cours explore également la régression logistique, la convexité forte, les taux de convergence et les propriétés des fonctions fortement convexes.