Introduit des modèles de Markov cachés, expliquant les problèmes de base et les algorithmes comme Forward-Backward, Viterbi et Baum-Welch, en mettant laccent sur lattente-Maximisation.
Explore les classes communicantes dans les chaînes de Markov, en distinguant les classes transitoires et récurrentes, et approfondit les propriétés de ces classes.
Explore la diagonalisation des matrices symétriques à l'aide de vecteurs propres et de valeurs propres, en mettant l'accent sur l'orthogonalité et les valeurs propres réelles.
Couvre la théorie et les exemples de matrices de diagonalisation, en se concentrant sur les valeurs propres, les vecteurs propres et lindépendance linéaire.