Séance de cours

Statistiques bayésiennes : Régularisation et divergence

Description

Cette séance de cours couvre les concepts de divergence Kullback-Leibler, de régularisation et de statistiques bayésiennes. Il explique comment ces techniques sont utilisées pour combattre le surajustement dans les modèles d'apprentissage automatique, en mettant l'accent sur la vision bayésienne de l'hypothèse du hasard dans les données. Des exemples de régression logistique et de calculs de probabilité sont fournis.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.