Introduit des opérateurs proximaux et des méthodes de gradient conditionnel pour les problèmes convexes composites de minimisation dans l'optimisation des données.
Introduit la méthode k-Nearest Neighbors et l'expansion des fonctionnalités pour l'apprentissage non linéaire de la machine par des transformations polynômes.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.
Couvre les problèmes linéaires, le LASSO et l'AMP dans l'apprentissage supervisé, y compris les modèles linéaires généralisés et les modèles N-dimensionnels.
Explore les classificateurs voisins les plus proches, le compromis entre les biais, la malédiction de la dimensionnalité et les limites de généralisation dans l'apprentissage automatique supervisé.