Couvre les perceptrons multicouches (MLP) et leur application de la classification à la régression, y compris le théorème d'approximation universelle et les défis liés aux gradients.
Explore les fonctions de perte, la descente de gradient et l'impact de la taille des pas sur l'optimisation dans les modèles d'apprentissage automatique, en soulignant l'équilibre délicat requis pour une convergence efficace.
Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.
Couvre la régression linéaire, la régularisation, les problèmes inverses, la tomographie par rayons X, la reconstruction d'images, l'inférence de données et l'intensité du détecteur.
Couvre les probabilités, les variables aléatoires, les attentes, les GLM, les tests d'hypothèse et les statistiques bayésiennes avec des exemples pratiques.