Optimisation de codeEn programmation informatique, l'optimisation de code est la pratique consistant à améliorer l'efficacité du code informatique d'un programme ou d'une bibliothèque logicielle. Ces améliorations permettent généralement au programme résultant de s'exécuter plus rapidement, de prendre moins de place en mémoire, de limiter sa consommation de ressources (par exemple les fichiers), ou de consommer moins d'énergie électrique. La règle numéro un de l'optimisation est qu'elle ne doit intervenir qu'une fois que le programme fonctionne et répond aux spécifications fonctionnelles.
Théorème de convergence monotoneEn mathématiques, le théorème de convergence monotone (ou théorème de Beppo Levi) est un résultat de la théorie de l'intégration de Lebesgue. Il permet de démontrer le lemme de Fatou et le théorème de convergence dominée. Ce théorème indique que pour une suite croissante de fonctions mesurables positives on a toujours la convergence de la suite de leurs intégrales vers l'intégrale de la limite simple. Le théorème autorise donc, pour une telle suite de fonctions, à intervertir les symboles et .
Système numérique de contrôle-commandevignette|Deux racks de CS3000, un SNCC de Yokogawa. De droite à gauche, dans le rack supérieur : une alimentation, une CPU, une carte bus pour communiquer avec l'autre rack, des cartes d'entrées-sorties ; dans le rack inférieur : idem sauf la CPU. On peut remarquer que la CPU est connectée à deux câbles Ethernet redondants pour communiquer avec d'autres CPU et des PC de supervision. Un système numérique de contrôle-commande (SNCC, ou DCS pour distributed control system en anglais) est un système de contrôle d'un procédé industriel doté d'une interface homme-machine pour la supervision et d'un réseau de communication numérique.
Matrice nilpotenteUne matrice nilpotente est une matrice dont il existe une puissance égale à la matrice nulle. Elle correspond à la notion d'endomorphisme nilpotent sur un espace vectoriel de dimension finie. Cette notion facilite souvent le calcul matriciel. En effet, si le polynôme caractéristique d'une matrice est scindé (c'est-à-dire décomposable en produit de facteurs du premier degré, ce qui est le cas par exemple si le corps des coefficients est algébriquement clos), alors l'endomorphisme associé possède une décomposition de Dunford.
Optimisation convexevignette|320x320px|Optimisation convexe dans un espace en deux dimensions dans un espace contraint L'optimisation convexe est une sous-discipline de l'optimisation mathématique, dans laquelle le critère à minimiser est convexe et l'ensemble admissible est convexe. Ces problèmes sont plus simples à analyser et à résoudre que les problèmes d'optimisation non convexes, bien qu'ils puissent être NP-difficile (c'est le cas de l'optimisation copositive). La théorie permettant d'analyser ces problèmes ne requiert pas la différentiabilité des fonctions.
Méthode de Newtonvignette|Une itération de la méthode de Newton. En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle. Cette méthode doit son nom aux mathématiciens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-être 1648-1715), qui furent les premiers à la décrire pour la recherche des solutions d'une équation polynomiale.
Control loopA control loop is the fundamental building block of control systems in general industrial control systems and industrial control systems in particular. It consists of the process sensor, the controller function, and the final control element (FCE) which controls the process necessary to automatically adjust the value of a measured process variable (PV) to equal the value of a desired set-point (SP). There are two common classes of control loop: open loop and closed loop.
Carré sommableEn mathématiques, une fonction définie sur un espace mesuré Ω et à valeurs dans R ou C est dite de carré sommable ou de carré intégrable si elle appartient à l’espace L(Ω) des fonctions dont l'intégrale du carré (du module dans le cas des nombres complexes) converge sur Ω. Par exemple, une fonction mesurable de R dans C est de carré sommable lorsque l’intégrale suivante (au sens de Lebesgue) converge, c'est-à-dire si elle existe et correspond ainsi à un nombre fini.
Optimisation linéairethumb|upright=0.5|Optimisation linéaire dans un espace à deux dimensions (x1, x2). La fonction-coût fc est représentée par les lignes de niveau bleues à gauche et par le plan bleu à droite. L'ensemble admissible E est le pentagone vert. En optimisation mathématique, un problème d'optimisation linéaire demande de minimiser une fonction linéaire sur un polyèdre convexe. La fonction que l'on minimise ainsi que les contraintes sont décrites par des fonctions linéaires, d'où le nom donné à ces problèmes.
Série convergenteEn mathématiques, une série est dite convergente si la suite de ses sommes partielles a une limite dans l'espace considéré. Dans le cas contraire, elle est dite divergente. Pour des séries numériques, ou à valeurs dans un espace de Banach — c'est-à-dire un espace vectoriel normé complet —, il suffit de prouver la convergence absolue de la série pour montrer sa convergence, ce qui permet de se ramener à une série à termes réels positifs. Pour étudier ces dernières, il existe une large variété de résultats, tous fondés sur le principe de comparaison.