Couvre les principes fondamentaux de la théorie du contrôle optimal, en se concentrant sur la définition des OCP, l'existence de solutions, les critères de performance, les contraintes physiques et le principe d'optimalité.
Explore la théorie du contrôle quadratique optimal linéaire, couvrant les problèmes FH-LQ et IH-LQ et l'importance de l'observabilité dans les systèmes de contrôle.
Explore la programmation dynamique pour un contrôle optimal, couvrant le remplacement de la machine, les chaînes de Markov, les politiques de contrôle et les problèmes quadratiques linéaires.