Couvre les bases de l'apprentissage automatique, y compris la reconnaissance des chiffres manuscrits, la classification supervisée, les limites de décision et l'ajustement des courbes polynômes.
Couvre l'inférence statistique, l'apprentissage automatique, les SVM pour la classification des pourriels, le prétraitement des courriels et l'extraction des fonctionnalités.
Explore la séparabilité linéaire dans les machines vectorielles de soutien, en se concentrant sur la séparation hyperplane et l'optimisation de la marge.
Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Explore la maximisation des marges pour une meilleure classification à l'aide de machines vectorielles de support et l'importance de choisir le bon paramètre.
Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.