Couvre les modèles générateurs en mettant l'accent sur l'auto-attention et les transformateurs, en discutant des méthodes d'échantillonnage et des moyens empiriques.
Couvre les autoencodeurs variationnels, une approche probabiliste des autoencodeurs pour la génération de données et la représentation de fonctionnalités, avec des applications dans le traitement du langage naturel.
Couvre les techniques de réduction de dimensionnalité non linéaire à l'aide d'autoencodeurs, d'autoencodeurs profonds et d'autoencodeurs convolutifs pour diverses applications.