Explore le surajustement dans la régression polynomiale, en soulignant l'importance de la généralisation dans l'apprentissage automatique et les statistiques.
Explore les mathématiques de l'apprentissage profond, les réseaux neuronaux et leurs applications dans les tâches de vision par ordinateur, en abordant les défis et le besoin de robustesse.
Couvre les techniques de réduction de la variance dans l'optimisation, en mettant l'accent sur la descente en gradient et les méthodes de descente en gradient stochastique.
Plongez dans l'optimisation du deep learning, les défis, les variantes SGD, les points critiques, les réseaux surparamétrés et les méthodes adaptatives.
Couvre les perceptrons multicouches (MLP) et leur application de la classification à la régression, y compris le théorème d'approximation universelle et les défis liés aux gradients.