Explore les modèles de diffusion, en mettant l'accent sur la production d'échantillons provenant d'une distribution et l'importance de la dénigrement dans le processus.
S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Explore la modélisation générative basée sur les scores au moyen d'équations différentielles stochastiques, en mettant l'accent sur les modèles probabilistes d'appariement des scores et de diffusion.