Cette séance de cours fournit un cours intensif sur l'apprentissage profond, en commençant par le Mark I Perceptron, la première implémentation de l'algorithme de perceptron. Il couvre les réseaux neuronaux inspirés par les neurosciences, le théorème d’approximation universelle, l’optimisation de la descente de gradient et différents algorithmes tels que SGD, Momentum et ADAM. La séance de cours se penche sur les aspects pratiques de la formation des réseaux neuronaux, y compris la descente de gradient mini-lot, et l'utilisation de Pytorch pour l'optimisation. Il se termine par un aperçu des sujets à venir tels que les réseaux neuronaux convolutifs et les contributions de personnalités telles que Yoshua Bengio, Geoffrey Hinton et Yann LeCun.