Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Introduit des perceptrons multicouches (MLP) et couvre la régression logistique, la reformulation, la descente de gradient, AdaBoost et les applications pratiques.
Explore les modèles linéaires pour la classification, y compris la classification binaire, la régression logistique, les limites de décision et les machines vectorielles de support.
Explore PCA et LDA pour la réduction de dimensionnalité linéaire dans les données, en mettant l'accent sur les techniques de clustering et de séparation de classe.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Couvre la représentation des données, la formation MLP, les fonctions d'activation et l'apprentissage basé sur le gradient dans les réseaux de neurones profonds.
Couvre le concept de régression du noyau et rend les données linéairement séparables en ajoutant des fonctionnalités et en utilisant des méthodes locales.