Explore la méthode de classification la plus proche du voisin, en discutant de ses limites dans les espaces de grande dimension et de l'importance de la corrélation spatiale pour des prédictions efficaces.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Introduit la méthode k-Nearest Neighbors et l'expansion des fonctionnalités pour l'apprentissage non linéaire de la machine par des transformations polynômes.
Introduit k-Nearest Neighbors pour la classification et l'expansion des fonctionnalités pour gérer les données non linéaires via des entrées transformées.
Couvre les défis posés par les données à haute dimension, la nécessité de réduire la dimensionnalité et les implications pour les modèles d'apprentissage automatique.
Explore les techniques de regroupement de comportement et de réduction de dimensionnalité non supervisées, couvrant des algorithmes comme K-Means, DBSCAN et Gaussian Mixture Model.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.