Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Explore lutilisation des modèles de mélange gaussien pour la transition du clustering à la classification, couvrant la classification binaire, lestimation des paramètres et le classificateur Bayes optimal.
Introduit le classificateur Naive Bayes, qui couvre les hypothèses d'indépendance, les probabilités conditionnelles et les applications dans la classification des documents et le diagnostic médical.
Explore les fondamentaux de régression logistique, y compris les fonctions de coût, la régularisation et les limites de classification, avec des exemples pratiques utilisant scikit-learn.
Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore les modèles linéaires pour la classification, y compris les modèles paramétriques, la régression et la régression logistique, ainsi que les mesures d'évaluation des modèles et les classificateurs de marge maximum.