Explore les méthodes de descente de gradient pour l'entraînement des réseaux de neurones artificiels, couvrant l'apprentissage supervisé, les réseaux monocouches et les règles modernes de descente de gradient.
Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Explore l'évaluation de la précision et de la robustesse de la machine et de l'homme sur ImageNet, en soulignant les progrès, les défis et la nécessité d'améliorer.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Couvre la décomposition des erreurs, la régression polynomiale et les voisins K les plus proches pour la modélisation flexible et les prédictions non linéaires.