Couvre les probabilités, les variables aléatoires, les attentes, les GLM, les tests d'hypothèse et les statistiques bayésiennes avec des exemples pratiques.
Explore l'apprentissage supervisé en mettant l'accent sur les méthodes de régression, y compris l'ajustement des modèles, la régularisation, la sélection des modèles et l'évaluation du rendement.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Présente la régularisation Lasso et son application à l'ensemble de données MNIST, en mettant l'accent sur la sélection des fonctionnalités et les exercices pratiques sur la mise en œuvre de la descente en gradient.
Couvre le chargement des ensembles de données, la compréhension des dimensions, les courbes d'apprentissage et l'impact de la régularisation sur les surajustements.
Explore l'estimation du maximum de vraisemblance pour la densité et le modèle Bernoulli, y compris la fiabilité des tests et le dépistage des maladies.
Explorer la densité de calcul des états et l'inférence bayésienne à l'aide d'un échantillonnage d'importance, montrant une variance inférieure et la parallélisation de la méthode proposée.