Couvre PCA et LDA pour la réduction de dimensionnalité, expliquant la maximisation de la variance, les problèmes de vecteurs propres et les avantages de Kernel PCA pour les données non linéaires.
Introduit l'apprentissage non supervisé en cluster avec les moyennes K et la réduction de dimensionnalité à l'aide de PCA, ainsi que des exemples pratiques.
Introduit l'analyse des composantes principales, en mettant l'accent sur la maximisation de la variance dans les combinaisons linéaires pour résumer efficacement les données.
Explore Kernel Principal Component Analysis, une méthode non linéaire utilisant des noyaux pour la résolution linéaire de problèmes et la réduction des dimensions.
Couvre l'analyse en composantes principales pour la réduction dimensionnelle des données biologiques, en se concentrant sur la visualisation et l'identification des modèles.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Explore la malédiction de la dimensionnalité, les méthodes de sélection variables, le coefficient de détermination et les limites des techniques de filtrage.