Cette séance de cours couvre les concepts de divergence Kullback-Leibler, de régularisation et de statistiques bayésiennes. Il explique comment ces techniques sont utilisées pour combattre le surajustement dans les modèles d'apprentissage automatique, en mettant l'accent sur la vision bayésienne de l'hypothèse du hasard dans les données. Des exemples de régression logistique et de calculs de probabilité sont fournis.