Dualité (optimisation)En théorie de l'optimisation, la dualité ou principe de dualité désigne le principe selon lequel les problèmes d'optimisation peuvent être vus de deux perspectives, le problème primal ou le problème dual, et la solution du problème dual donne une borne inférieure à la solution du problème (de minimisation) primal. Cependant, en général les valeurs optimales des problèmes primal et dual ne sont pas forcément égales : cette différence est appelée saut de dualité. Pour les problèmes en optimisation convexe, ce saut est nul sous contraintes.
Méthode de l'ellipsoïdeEn optimisation mathématique, la méthode de l'ellipsoïde est une méthode itérative utilisée pour minimiser des fonctions convexes. En informatique théorique, cette méthode est connue comme étant le premier algorithme de complexité polynomiale découvert pour résoudre les problèmes d'optimisation linéaire. L'algorithme construit une suite d'ellipsoïdes de plus en plus petits, qui enserrent à chaque étape le minimum de la fonction objectif.
Pseudoconvex functionIn convex analysis and the calculus of variations, both branches of mathematics, a pseudoconvex function is a function that behaves like a convex function with respect to finding its local minima, but need not actually be convex. Informally, a differentiable function is pseudoconvex if it is increasing in any direction where it has a positive directional derivative. The property must hold in all of the function domain, and not only for nearby points.
Méthode de dichotomieLa méthode de dichotomie ou méthode de la bissection est, en mathématiques, un algorithme de recherche d'un zéro d'une fonction qui consiste à répéter des partages d’un intervalle en deux parties puis à sélectionner le sous-intervalle dans lequel existe un zéro de la fonction. On considère deux nombres réels a et b et une fonction réelle f continue sur l'intervalle [a, b] telle que f(a) et f(b) soient de signes opposés. Supposons que nous voulions résoudre l'équation f(x) = 0.
Variété différentielleEn mathématiques, les variétés différentielles ou variétés différentiables sont les objets de base de la topologie différentielle et de la géométrie différentielle. Il s'agit de variétés, « espaces courbes » localement modelés sur l'espace euclidien de dimension n, sur lesquelles il est possible de généraliser une bonne part des opérations du calcul différentiel et intégral. Une variété différentielle se définit donc d'abord par la donnée d'une variété topologique, espace topologique localement homéomorphe à l'espace R.
Méthode de la sécanteEn analyse numérique, la méthode de la sécante est un algorithme de recherche d'un zéro d'une fonction f. La méthode de la sécante est une méthode comparable à celle de Newton, où l'on remplace par On obtient la relation de récurrence : L'initialisation nécessite deux points x0 et x1, proches, si possible, de la solution recherchée. Il n'est pas nécessaire que x0 et x1 encadrent une racine de f. La méthode de la sécante peut aussi être vue comme une généralisation de la méthode de la fausse position, où les calculs sont itérés.
Optimisation non linéaireEn optimisation, vue comme branche des mathématiques, l'optimisation non linéaire (en anglais : nonlinear programming – NLP) s'occupe principalement des problèmes d'optimisation dont les données, i.e., les fonctions et ensembles définissant ces problèmes, sont non linéaires, mais sont aussi différentiables autant de fois que nécessaire pour l'établissement des outils théoriques, comme les conditions d'optimalité, ou pour la bonne marche des algorithmes de résolution qui y sont introduits et analysés.
Opérateur adjointEn mathématiques, un opérateur adjoint est un opérateur sur un espace préhilbertien qui est défini, lorsque c'est possible, à partir d'un autre opérateur a et que l'on note a*. On dit aussi que a* est l'adjoint de a. Cet opérateur adjoint permet de faire passer l'opérateur a de la partie gauche du produit scalaire définissant l'espace préhilbertien à la partie droite du produit scalaire. Il s'agit donc d'une généralisation de la notion de matrice adjointe à des espaces de dimension infinie.
Strong operator topologyIn functional analysis, a branch of mathematics, the strong operator topology, often abbreviated SOT, is the locally convex topology on the set of bounded operators on a Hilbert space H induced by the seminorms of the form , as x varies in H. Equivalently, it is the coarsest topology such that, for each fixed x in H, the evaluation map (taking values in H) is continuous in T. The equivalence of these two definitions can be seen by observing that a subbase for both topologies is given by the sets (where T0 is any bounded operator on H, x is any vector and ε is any positive real number).
Smooth schemeIn algebraic geometry, a smooth scheme over a field is a scheme which is well approximated by affine space near any point. Smoothness is one way of making precise the notion of a scheme with no singular points. A special case is the notion of a smooth variety over a field. Smooth schemes play the role in algebraic geometry of manifolds in topology. First, let X be an affine scheme of finite type over a field k. Equivalently, X has a closed immersion into affine space An over k for some natural number n.