Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Explorer la densité de calcul des états et l'inférence bayésienne à l'aide d'un échantillonnage d'importance, montrant une variance inférieure et la parallélisation de la méthode proposée.
Explore les techniques bayésiennes pour résoudre les problèmes de valeur extrême, en mettant l'accent sur l'analyse du MCMC et sur l'importance d'une information préalable appropriée.
Explore les codeurs automatiques variables, l'inférence bayésienne, les espaces latents axés sur l'attention et l'efficacité des transformateurs dans le traitement des langues.