Optimisation linéairethumb|upright=0.5|Optimisation linéaire dans un espace à deux dimensions (x1, x2). La fonction-coût fc est représentée par les lignes de niveau bleues à gauche et par le plan bleu à droite. L'ensemble admissible E est le pentagone vert. En optimisation mathématique, un problème d'optimisation linéaire demande de minimiser une fonction linéaire sur un polyèdre convexe. La fonction que l'on minimise ainsi que les contraintes sont décrites par des fonctions linéaires, d'où le nom donné à ces problèmes.
Méthode de Newtonvignette|Une itération de la méthode de Newton. En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle. Cette méthode doit son nom aux mathématiciens anglais Isaac Newton (1643-1727) et Joseph Raphson (peut-être 1648-1715), qui furent les premiers à la décrire pour la recherche des solutions d'une équation polynomiale.
Séparation et évaluationUn algorithme par séparation et évaluation, ou branch and bound en anglais, est une méthode générique de résolution de problèmes d'optimisation combinatoire. Cet algorithme a été introduit par Ailsa Land et Alison Harcourt (Doig) en 1960. L'optimisation combinatoire consiste à trouver un point minimisant une fonction, appelée coût, dans un ensemble dénombrable. Une méthode naïve pour résoudre ce problème est d'énumérer toutes les solutions du problème, de calculer le coût pour chacune, puis de donner le minimum.
Fonction monotoneEn mathématiques, une fonction monotone est une fonction entre ensembles ordonnés qui préserve ou renverse l'ordre. Dans le premier cas, on parle de fonction croissante et dans l'autre de fonction décroissante. Ce concept est tout d'abord apparu en analyse réelle pour les fonctions numériques et a été généralisé ensuite dans le cadre plus abstrait de la théorie des ordres. Intuitivement (voir les figures ci-contre), la représentation graphique d'une fonction monotone sur un intervalle est une courbe qui « monte » constamment ou « descend » constamment.
Borne supérieure et borne inférieureEn mathématiques, les notions de borne supérieure et borne inférieure d'un ensemble de nombres réels interviennent en analyse, comme cas particulier de la définition générale suivante : la borne supérieure (ou le supremum) d'une partie d'un ensemble (partiellement) ordonné est le plus petit de ses majorants. Une telle borne n'existe pas toujours, mais si elle existe alors elle est unique. Elle n'appartient pas nécessairement à la partie considérée. Dualement, la borne inférieure (ou l'infimum) d'une partie est le plus grand de ses minorants.
Optimisation SDPEn mathématiques et en informatique théorique, l'optimisation SDP ou semi-définie positive, est un type d'optimisation convexe, qui étend l'optimisation linéaire. Dans un problème d'optimisation SDP, l'inconnue est une matrice symétrique que l'on impose d'être semi-définie positive. Comme en optimisation linéaire, le critère à minimiser est linéaire et l'inconnue doit également satisfaire une contrainte affine. L'optimisation SDP se généralise par l'optimisation conique, qui s'intéresse aux problèmes de minimisation d'une fonction linéaire sur l'intersection d'un cône et d'un sous-espace affine.
Apprentissage par renforcementEn intelligence artificielle, plus précisément en apprentissage automatique, l'apprentissage par renforcement consiste, pour un agent autonome ( robot, agent conversationnel, personnage dans un jeu vidéo), à apprendre les actions à prendre, à partir d'expériences, de façon à optimiser une récompense quantitative au cours du temps. L'agent est plongé au sein d'un environnement et prend ses décisions en fonction de son état courant. En retour, l'environnement procure à l'agent une récompense, qui peut être positive ou négative.
Analyse convexeL'analyse convexe est la branche des mathématiques qui étudie les ensembles et les fonctions convexes. Cette théorie étend sur beaucoup d'aspects les concepts de l'algèbre linéaire et sert de boîte à outils en analyse et en analyse non lisse. Elle s'est beaucoup développée du fait de ses interactions avec l'optimisation, où elle apporte des propriétés particulières aux problèmes qui y sont étudiés. Certains voient la naissance de l'analyse convexe « moderne » dans l'invention des notions de sous-différentiel, d'application proximale et d'inf-convolution dans les années 1962-63.
Partie bornéeEn mathématiques, la notion de partie bornée (ou, par raccourci, de borné) étend celle d'intervalle borné de réels à d'autres structures, notamment en topologie et en théorie des ordres. Selon les cas, la définition privilégie l'existence de bornes ponctuelles ou la négation de l'éloignement à l'infini. Une fonction bornée est une fonction dont l' est bornée dans l'ensemble d'arrivée. Un opérateur borné est un opérateur linéaire dont les images de bornés sont bornées également.
Semi-normeEn mathématiques, une semi-norme est une application d'un espace vectoriel dans l'ensemble des réels positifs. C'est « presque » une norme mais une propriété est manquante : la semi-norme d'un vecteur non nul peut être nulle. En analyse fonctionnelle, cette situation est relativement courante. L'espace vectoriel est un espace de fonctions d'un espace mesuré à valeurs dans les réels ou complexes. La semi-norme correspond par exemple à l'intégrale de la valeur absolue ou du module de la fonction.