Séance de cours

Réduction de la dimensionnalité : PCA et LDA

Description

Cette séance de cours couvre les concepts de réduction de la dimensionnalité grâce à des techniques telles que l'analyse en composantes principales (PCA) et l'analyse discriminante linéaire Fisher (LDA). Il explique comment PCA vise à conserver le signal de données important tout en éliminant le bruit en maximisant la variance, et comment LDA se concentre sur le regroupement des échantillons de la même classe et la séparation des différentes classes. La séance de cours présente également Kernel PCA pour les données non linéaires, t-SNE pour la visualisation, et discute des méthodes de clustering comme K-means. Il se penche sur les modèles de mélange gaussien (GMM) pour lestimation de la densité, KDE pour les estimations de la distribution lisse, et le décalage moyen pour le regroupement en trouvant des maxima de densité. La présentation se termine par une comparaison des KDE et des histogrammes pour la représentation des données.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.