Explore Kernel Principal Component Analysis, une méthode non linéaire utilisant des noyaux pour la résolution linéaire de problèmes et la réduction des dimensions.
Introduit l'analyse de corrélation canonique pour trouver des caractéristiques communes dans des ensembles de données séparés, s'étendant aux données multimodales et aux caractéristiques non linéaires.
Introduit le Support Vector Clustering (SVC) à l'aide d'un noyau gaussien pour la cartographie spatiale des caractéristiques de grande dimension et explique ses contraintes et Lagrangian.
Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Explore les méthodes du noyau dans l'apprentissage automatique, en mettant l'accent sur leur application dans les tâches de régression et la prévention du surajustement.
Explore le choix des architectures de réseaux graphes neuraux, en évaluant la complexité du modèle et les performances à partir de statistiques de données.