Séance de cours

Théorie de la généralisation

Description

Cette séance de cours couvre le concept de la théorie de la généralisation dans l'apprentissage automatique, en mettant l'accent sur les défis auxquels sont confrontées les méthodes fondées sur les données pour l'inférence et l'apprentissage dans les espaces de dimension supérieure. La malédiction de la dimensionnalité est discutée, illustrant comment la densité de l'échantillon varie avec les valeurs de dimension. La séance de cours se penche également sur la minimisation empirique du risque, la liaison Vapnik-Chervonenkis, l'apprentissage du PAC et le compromis entre les biais et les variations. L'instructeur explique la relation entre le biais et la variance au fur et à mesure que la complexité du modèle augmente, en soulignant l'importance de trouver un équilibre pour éviter les sous-ajustements ou les surajustements.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.