Cette séance de cours explore les structures dans l'optimisation non convexe, en se concentrant sur l'optimisation évolutive pour le deep learning. Les sujets abordés incluent les formulations d'optimisation pour les problèmes d'apprentissage en profondeur, la descente stochastique du gradient et ses variantes, la classification des points critiques, la propriété stricte de la selle, la convergence de SGD, l'évitement des points de selle, la vitesse de convergence vers les minimiseurs locaux et le paysage d'optimisation des réseaux neuronaux surparamétrés.