Cette séance de cours explore le paysage, la performance et la malédiction de la dimensionnalité dans l'apprentissage profond, en se concentrant sur la classification des données dans de grandes dimensions, les avantages de l'apprentissage de la représentation des données et la stabilité vers des déformations lisses. Il explore les mécanismes derrière l'invariance des filets profonds vers les déformations, la géométrie des paysages de perte et le diagramme de phase pour l'apprentissage en profondeur. En outre, il discute de la transition «brouillage» dans l'apprentissage en profondeur, deux algorithmes de limitation basés sur le nombre de paramètres, et le noyau de tangente neurale dans les architectures modernes.