S'insère dans le compromis entre la complexité du modèle et le risque, les limites de généralisation, et les dangers d'un ajustement excessif des classes de fonctions complexes.
Couvre les méthodes d'ensemble comme les forêts aléatoires et les baies de Naive de Gaussian, expliquant comment elles améliorent la précision de prédiction et estimer les distributions gaussiennes conditionnelles.
Couvre les faits stylisés du rendement des actifs, des statistiques sommaires, des tests de la normalité, des placettes Q-Q et des hypothèses de marché efficaces.
Explore l’apprentissage profond avec des images Instagram, comprend la perception des aliments, l’obésité et la santé mentale, et discute de l’impact des images des médias sociaux et des plateformes éphémères comme Snapchat.
Explore les arbres de décision pour la classification, l'entropie, le gain d'information, l'encodage à chaud, l'optimisation de l'hyperparamètre et les forêts aléatoires.