Cette séance de cours présente le théorème du déjeuner sans gratuit, qui stipule que tous les algorithmes d'optimisation sont équivalents lorsqu'ils sont moyennés sur tous les problèmes possibles. Il explore comment l'apprentissage profond, en particulier les réseaux profonds optimisés avec descente en gradient, peut bien fonctionner sur les problèmes du monde réel en faisant correspondre la structure des problèmes. L'instructeur discute de la géométrie du flux d'informations dans les réseaux neuronaux et fournit des exemples de la façon dont les réseaux profonds peuvent correspondre à la structure de problèmes réels, tels que les images et la musique.