Explore les techniques de régression non paramétrique, y compris les splines, le compromis entre les variables de biais, les fonctions orthogonales, les ondulations et les estimateurs de modulation.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Discute des arbres de décision et des forêts aléatoires, en se concentrant sur leur structure, leur optimisation et leur application dans les tâches de régression et de classification.
Couvre les arbres de décision pour la régression et la classification, expliquant la construction des arbres, la sélection des caractéristiques et les critères d'induction.
Couvre les sujets avancés dans les modèles linéaires généralisés, en mettant l'accent sur les fonctions de liaison, les distributions d'erreurs et l'interprétation des modèles.
Couvre l'expansion des fonctionnalités polynômes, les fonctions du noyau, la régression et le SVM, soulignant l'importance de choisir les fonctions pour l'expansion des fonctionnalités.
Explore la régression linéaire probabiliste et la régression de processus gaussien, en mettant l'accent sur la sélection du noyau et l'ajustement hyperparamétrique pour des prédictions précises.