Explore la théorie du clustering spectral, la décomposition des valeurs propres, la matrice laplacienne et les applications pratiques dans l'identification des clusters.
Explore le cluster spectral, la décomposition des valeurs propres, les matrices laplaciennes et l'identification des clusters au moyen de projections de vecteurs propres.
Introduit l'apprentissage non supervisé en cluster avec les moyennes K et la réduction de dimensionnalité à l'aide de PCA, ainsi que des exemples pratiques.
Couvre PCA et LDA pour la réduction de dimensionnalité, expliquant la maximisation de la variance, les problèmes de vecteurs propres et les avantages de Kernel PCA pour les données non linéaires.
Couvre la théorie et la pratique des algorithmes de regroupement, y compris PCA, K-means, Fisher LDA, groupement spectral et réduction de dimensionnalité.
Explore la Décomposition de la Valeur Singulière et son rôle dans l'apprentissage non supervisé et la réduction de dimensionnalité, en mettant l'accent sur ses propriétés et applications.
Explore Kernel Principal Component Analysis, une méthode non linéaire utilisant des noyaux pour la résolution linéaire de problèmes et la réduction des dimensions.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.