Couvre les fondamentaux de l'échelle vers des données massives à l'aide de Spark, en mettant l'accent sur les DDR, les transformations, les actions, l'architecture Spark, et la boîte à outils d'apprentissage automatique de Spark.
Introduit la méthode k-Nearest Neighbors et l'expansion des fonctionnalités pour l'apprentissage non linéaire de la machine par des transformations polynômes.
Discute de la géométrie des moindres carrés, en explorant les perspectives des lignes et des colonnes, les hyperplans, les projections, les résidus et les vecteurs uniques.
Explorer l'interprétation des modèles de régression logistique, l'estimation des paramètres et la comparaison des modèles à l'aide de tests de rapport de probabilité.
Introduit des opérateurs proximaux et des méthodes de gradient conditionnel pour les problèmes convexes composites de minimisation dans l'optimisation des données.
Explore des sujets avancés dans l'apprentissage automatique, en se concentrant sur les extensions SVR et l'optimisation hyperparamétrique, y compris Nu-SVR et RVR.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.