Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Explore l'ajustement de la courbe polynomiale, les fonctions du noyau et les techniques de régularisation, en soulignant l'importance de la complexité du modèle et du surajustement.
Explore les noyaux de régression de processus gaussien, les coûts de calcul et les comparaisons avec la régression de crête et d'autres techniques de régression non linéaire.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Explore la régularisation dans des modèles linéaires, y compris la régression de crête et le Lasso, les solutions analytiques et la régression de crête polynomiale.
Explore les noyaux pour simplifier la représentation des données et la rendre linéairement séparable dans les espaces de fonctionnalités, y compris les fonctions populaires et les exercices pratiques.