Constrained optimizationIn mathematical optimization, constrained optimization (in some contexts called constraint optimization) is the process of optimizing an objective function with respect to some variables in the presence of constraints on those variables. The objective function is either a cost function or energy function, which is to be minimized, or a reward function or utility function, which is to be maximized.
Fonction de LiapounovUne fonction de Liapounov est une fonction qui permet d'estimer la stabilité d'un point d'équilibre (ou, plus généralement, d'un mouvement, c'est-à-dire d'une solution maximale) d'une équation différentielle. Soit une fonction et un système dynamique, avec un point d'équilibre de ce système, c'est-à-dire que . Par un changement de variable , on peut se ramener au cas où l'origine est un point d'équilibre (). Une fonction est une fonction candidate de Liapounov si pour un certain voisinage de l'origine.
Commande optimaleLa théorie de la commande optimale permet de déterminer la commande d'un système qui minimise (ou maximise) un critère de performance, éventuellement sous des contraintes pouvant porter sur la commande ou sur l'état du système. Cette théorie est une généralisation du calcul des variations. Elle comporte deux volets : le principe du maximum (ou du minimum, suivant la manière dont on définit l'hamiltonien) dû à Lev Pontriaguine et à ses collaborateurs de l'institut de mathématiques Steklov , et l'équation de Hamilton-Jacobi-Bellman, généralisation de l'équation de Hamilton-Jacobi, et conséquence directe de la programmation dynamique initiée aux États-Unis par Richard Bellman.
Algorithme du simplexeLalgorithme du simplexe est un algorithme de résolution des problèmes d'optimisation linéaire. Il a été introduit par George Dantzig à partir de 1947. C'est probablement le premier algorithme permettant de minimiser une fonction sur un ensemble défini par des inégalités. De ce fait, il a beaucoup contribué au démarrage de l'optimisation numérique. L'algorithme du simplexe a longtemps été la méthode la plus utilisée pour résoudre les problèmes d'optimisation linéaire.
Programmation par contraintesLa programmation par contraintes (PPC, ou CP pour constraint programming en anglais) est un paradigme de programmation apparu dans les années 1970 et 1980 permettant de résoudre des problèmes combinatoires de grande taille tels que les problèmes de planification et d'ordonnancement. En programmation par contraintes, on sépare la partie modélisation à l'aide de problèmes de satisfaction de contraintes (ou CSP pour Constraint Satisfaction Problem), de la partie résolution dont la particularité réside dans l'utilisation active des contraintes du problème pour réduire la taille de l'espace des solutions à parcourir (on parle de propagation de contraintes).
Variété stableLes variétés stables jouent un rôle central dans les systèmes dynamiques différentiables en temps continu. Cette notion est aussi au centre de l'homologie de Floer. Soit une fonction différentiable sur une variété différentielle compacte de dimension . Considérons une métrique riemannienne sur . Le champ de gradient de est défini par Un point critique est dit non dégénéré lorsque la hessienne est une forme blinéaire non dégénérée sur .
Contre-réactionvignette|Modèle simple de contre-réaction. En électronique le principe de la contre-réaction permet le contrôle des circuits d', de filtrage ou d'asservissement. Elle permet de rendre leurs caractéristiques de fonctionnement indépendantes, dans une large mesure, des différents constituants internes de ces systèmes. Le principe de la contre-réaction a été découvert par Harold Stephen Black le 2 août 1927. Cette idée lui serait venue alors qu'il se rendait à son travail aux laboratoires Bell.
Constraint logic programmingConstraint logic programming is a form of constraint programming, in which logic programming is extended to include concepts from constraint satisfaction. A constraint logic program is a logic program that contains constraints in the body of clauses. An example of a clause including a constraint is . In this clause, is a constraint; A(X,Y), B(X), and C(Y) are literals as in regular logic programming. This clause states one condition under which the statement A(X,Y) holds: X+Y is greater than zero and both B(X) and C(Y) are true.