Explore l'importance de la causalité pour l'apprentissage machine robuste, couvrant les ensembles de données idéaux, les problèmes de données manquants, les modèles graphiques et les modèles d'interférence.
Couvre la théorie derrière l'estimation maximale de la vraisemblance, en discutant des propriétés et des applications dans le choix binaire et des modèles multiréponses ordonnées.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Explore des méthodes robustes et résistantes dans des modèles linéaires, en soulignant l'importance de gérer les observations extrêmes et les implications de la robustesse dans les modèles de régression.
Explore la méthodologie de conception expérimentale, y compris les plans classiques, la méthode simplex et l'analyse canonique pour les modèles linéaires et quadratiques.
Introduit la méthode de Newton pour résoudre les équations non linéaires itérativement, en soulignant sa convergence rapide, mais aussi son incapacité potentielle à converger dans certains cas.