Cette séance de cours couvre les principes fondamentaux de l'optimisation, y compris les normes, la convexité, la différentiabilité et la douceur. Il se penche sur des sujets tels que l'algèbre linéaire, l'analyse, les ensembles convexes et les fonctions, les taux de convergence et les méthodes de descente de gradient. La présentation passe de la définition de métriques et de normes vectorielles à la discussion de quasi-normes, de demi-normes, de boules de normes et de normes doubles. Il explore également les normes matricielles, les q-normes de Schatten, les normes d'opérateur et les matrices définies positives. La séance de cours se termine par un aperçu de la continuité, de la continuité de Lipschitz, de la différentiabilité, des gradients et des approximations linéaires.