Cette séance de cours introduit le concept d'apprentissage profond, en se concentrant sur le modèle de perceptron multicouche (MLP). Il commence par un récapitulatif des représentations des données, soulignant les défis des données hétérogènes et l’importance du prétraitement. Linstructeur discute du modèle de sac de mots pour le texte et étend cette idée aux images en utilisant des sacs de mots visuels. La séance de cours passe ensuite au MLP, expliquant sa structure, y compris les couches d'entrée, cachée et de sortie, et le rôle des fonctions d'activation. Le processus d'entraînement pour les MLP est détaillé, mettant en évidence l'utilisation de la descente en pente et de la rétropropagation pour optimiser les paramètres. L'instructeur aborde les défis des gradients de disparition et l'importance des stratégies d'initialisation du poids. En outre, la séance de cours couvre les techniques pour éviter les surajustements, tels que le décrochage et la régularisation. La session se termine par une discussion sur la transition de la régression aux tâches de classification en utilisant les fonctions de perte softmax et inter-entropie, ouvrant la voie à de futures séance de courss sur l'application de ces concepts aux données d'image.