Couvre les processus de Markov, les densités de transition et la distribution sous réserve d'information, en discutant de la classification des états et des distributions fixes.
S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.
Explore la limitation de la distribution dans les chaînes de Markov et les implications de l'ergodicité et de l'apériodicité sur les distributions stationnaires.
Introduit des modèles de Markov cachés, expliquant les problèmes de base et les algorithmes comme Forward-Backward, Viterbi et Baum-Welch, en mettant laccent sur lattente-Maximisation.