Couvre la règle d'Oja dans les neurorobotiques, se concentrant sur l'apprentissage des eigenvectors et des valeurs propres pour capturer la variance maximale.
Explore la distribution de Wishart, les propriétés des matrices de Wishart, et la distribution de T2 de Hotelling, y compris la statistique T2 de deux exemples Hotelling.
Explore la réduction des dimensions linéaires grâce à la PCA, à la maximisation de la variance et à des applications réelles telles que l'analyse des données médicales.
Couvre les matrices définies non négatives, les matrices de covariance et l'analyse en composantes principales pour une réduction optimale des dimensions.