Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Couvre les défis de classification d'images, les concepts d'apprentissage automatique, la régression linéaire et l'approche voisine la plus proche dans les véhicules autonomes.
Explore la séparabilité linéaire dans les machines vectorielles de soutien, en se concentrant sur la séparation hyperplane et l'optimisation de la marge.
Couvre la minimisation empirique des risques, l'apprentissage statistique et des exemples de prédiction du cancer, de prix des maisons et de génération d'images.
Couvre l'apprentissage supervisé en mettant l'accent sur la régression linéaire, y compris des sujets comme la classification numérique, la détection des pourriels et la prédiction de la vitesse du vent.