Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Explore le lemme de Farkas, la séparation hyperplane, la combinatoire et son application dans la théorie des jeux, en se concentrant sur les stratégies de penalty kick.
Explore Support Vector Machines, couvrant la marge ferme, la marge souple, la perte de charnière, la comparaison des risques et la perte de charnière quadratique.
Explore les noyaux pour simplifier la représentation des données et la rendre linéairement séparable dans les espaces de fonctionnalités, y compris les fonctions populaires et les exercices pratiques.