Couvre la théorie et les applications de l'analyse des composantes principales, en mettant l'accent sur la réduction des dimensions et les vecteurs propres.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Couvre l'apprentissage non supervisé, en mettant l'accent sur la réduction de la dimensionnalité et le regroupement, en expliquant comment il aide à trouver des modèles dans les données sans étiquettes.
Introduit l'analyse des composantes principales, en mettant l'accent sur la maximisation de la variance dans les combinaisons linéaires pour résumer efficacement les données.
Explore les techniques d'apprentissage non supervisées pour réduire les dimensions des données, en mettant l'accent sur l'APC, l'ADL et l'APC du noyau.
Couvre les matrices définies non négatives, les matrices de covariance et l'analyse en composantes principales pour une réduction optimale des dimensions.