Commande optimaleLa théorie de la commande optimale permet de déterminer la commande d'un système qui minimise (ou maximise) un critère de performance, éventuellement sous des contraintes pouvant porter sur la commande ou sur l'état du système. Cette théorie est une généralisation du calcul des variations. Elle comporte deux volets : le principe du maximum (ou du minimum, suivant la manière dont on définit l'hamiltonien) dû à Lev Pontriaguine et à ses collaborateurs de l'institut de mathématiques Steklov , et l'équation de Hamilton-Jacobi-Bellman, généralisation de l'équation de Hamilton-Jacobi, et conséquence directe de la programmation dynamique initiée aux États-Unis par Richard Bellman.
Théorie du contrôleEn mathématiques et en sciences de l'ingénieur, la théorie du contrôle a comme objet l'étude du comportement de systèmes dynamiques paramétrés en fonction des trajectoires de leurs paramètres. On se place dans un ensemble, l'espace d'état sur lequel on définit une dynamique, c'est-à-dire une loi mathématiques caractérisant l'évolution de variables (dites variables d'état) au sein de cet ensemble. Le déroulement du temps est modélisé par un entier .
État stationnaireEn physique, un procédé est dit à l'état stationnaire ou en régime stationnaire si les variables le décrivant ne varient pas avec le temps. Mathématiquement un tel état se définit par: quelle que soit propriété du système (significative dans la présente perspective). Un exemple de procédé stationnaire est un réacteur chimique dans une phase de production continue. Un tel système travaille à température, à concentrations (réactifs et produits) et à volume constants ; en revanche, la couleur ou la texture du milieu peuvent être non-significatives.
État stationnaire (économie)thumb|350px|Les ressources naturelles traversent l'économie et finissent comme des déchets et de la pollution. Une économie stationnaire ou état stationnaire est une économie dont le stock de capital physique et la taille de la population sont constants et qui ne croît pas avec le temps. Normalement, ce terme fait référence à l'économie nationale d'un pays donné, mais il peut également s'appliquer au système économique d'une ville, d'une région ou du monde entier.
Stochastic controlStochastic control or stochastic optimal control is a sub field of control theory that deals with the existence of uncertainty either in observations or in the noise that drives the evolution of the system. The system designer assumes, in a Bayesian probability-driven fashion, that random noise with known probability distribution affects the evolution and observation of the state variables. Stochastic control aims to design the time path of the controlled variables that performs the desired control task with minimum cost, somehow defined, despite the presence of this noise.
Tout ou rienEn automatique, le concept TOR (tout ou rien) se ramène au binaire : 0 ou 1. Cela signifie que l'information à traiter ne peut prendre que deux états (marche-arrêt). Seuls ces deux niveaux logiques sont possibles, d'où l'appellation commande tout ou rien (en anglais : bang–bang-control ou on–off-control). On trouve par exemple des capteurs de type TOR (tout ou rien, en anglais : digital sensor) dans l'industrie pour la détection de présence d'objets, ces capteurs ne renverront que deux niveaux logiques : 0 = absence d'objet 1 = présence d'objet Un interrupteur électrique, un thermostat constituent des dispositifs tout ou rien.
Commande LQEn automatique, la Commande linéaire quadratique, dite Commande LQ, est une méthode qui permet de calculer la matrice de gains d'une commande par retour d'état. L'initiateur de cette approche est Kalman, auteur de trois articles fondamentaux entre 1960 et 1964. Les résultats de Kalman ont été complétés par de nombreux auteurs. Nous ne traiterons ici que de la commande linéaire quadratique à horizon infini dans le cas d'un système linéaire stationnaire (ou « invariant »), renvoyant à l'article Commande optimale pour le cas d'un horizon fini et d'un système linéaire dont les matrices varient en fonction du temps.
Bellman equationA Bellman equation, named after Richard E. Bellman, is a necessary condition for optimality associated with the mathematical optimization method known as dynamic programming. It writes the "value" of a decision problem at a certain point in time in terms of the payoff from some initial choices and the "value" of the remaining decision problem that results from those initial choices. This breaks a dynamic optimization problem into a sequence of simpler subproblems, as Bellman's “principle of optimality" prescribes.
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
État transitoireUn procédé est dit être à l'état transitoire si une variable du système varie avec le temps. Certains types de procédé sont toujours à l'état transitoire ( un réacteur discontinu où les concentrations des réactifs et des produits varient tout au long de la réaction), alors que d'autres ne le sont que durant la phase de démarrage du procédé (exemple : le réacteur continu ou la distillation continue).