Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Explore PCA et LDA pour la réduction de dimensionnalité linéaire dans les données, en mettant l'accent sur les techniques de clustering et de séparation de classe.
Couvre une introduction mathématique à l'apprentissage profond, y compris les défis, la puissance des classificateurs linéaires, l'échelle du modèle et les aspects théoriques.
Explore la classification linéaire, l'extraction des caractéristiques, les fonctions de perte, la validation croisée et les échelles spatiales dans le traitement des signaux et l'analyse de l'IRMf.
Couvre les défis de classification d'images, les concepts d'apprentissage automatique, la régression linéaire et l'approche voisine la plus proche dans les véhicules autonomes.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Explore l'apprentissage de la fonction du noyau en optimisation convexe, en se concentrant sur la prédiction des sorties à l'aide d'un classificateur linéaire et en sélectionnant les fonctions optimales du noyau par validation croisée.
Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.