Couvre les principes fondamentaux de la théorie du contrôle optimal, en se concentrant sur la définition des OCP, l'existence de solutions, les critères de performance, les contraintes physiques et le principe d'optimalité.
Couvre les principes fondamentaux et l'analyse de stabilité des systèmes de contrôle en réseau, y compris l'installation de logiciels, les systèmes dynamiques, les états d'équilibre et les tests de stabilité.