Optimal stoppingIn mathematics, the theory of optimal stopping or early stopping is concerned with the problem of choosing a time to take a particular action, in order to maximise an expected reward or minimise an expected cost. Optimal stopping problems can be found in areas of statistics, economics, and mathematical finance (related to the pricing of American options). A key example of an optimal stopping problem is the secretary problem. Optimal stopping problems can often be written in the form of a Bellman equation, and are therefore often solved using dynamic programming.
Méthode des volumes finisEn analyse numérique, la méthode des volumes finis est utilisée pour résoudre numériquement des équations aux dérivées partielles, comme la méthode des différences finies et celle des éléments finis. Contrairement à la méthode des différences finies, qui met en jeu des approximations des dérivées, les méthodes des volumes finis et des éléments finis exploitent des approximations d'intégrales.
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Méthode du gradient conjuguévignette|Illustration de la méthode du gradient conjugué. En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire).
Polynôme irréductibleIn mathematics, an irreducible polynomial is, roughly speaking, a polynomial that cannot be factored into the product of two non-constant polynomials. The property of irreducibility depends on the nature of the coefficients that are accepted for the possible factors, that is, the field to which the coefficients of the polynomial and its possible factors are supposed to belong. For example, the polynomial x2 − 2 is a polynomial with integer coefficients, but, as every integer is also a real number, it is also a polynomial with real coefficients.
Erreur de mesurevignette|upright|Mesurage avec une colonne de mesure. Une erreur de mesure, dans le langage courant, est Exemples usuels et fictifs d'après cette définition : L'indication d'une balance de ménage pour une masse de certifiée est de . L'erreur de mesure est de – ; La distance entre deux murs, donnée par un télémètre laser est de , valeur considérée ici comme exacte. La valeur mesurée, au même endroit, avec un mètre à ruban est de . L'erreur de mesure, avec le mètre à ruban, est de ou ; La différence sur 24 heures de temps entre une pendule radio pilotée et une montre bracelet est de .
Théorie de la démonstrationLa théorie de la démonstration, aussi connue sous le nom de théorie de la preuve (de l'anglais proof theory), est une branche de la logique mathématique. Elle a été fondée par David Hilbert au début du . Hilbert a proposé cette nouvelle discipline mathématique lors de son célèbre exposé au congrès international des mathématiciens en 1900 avec pour objectif de démontrer la cohérence des mathématiques.
Espace LpEn mathématiques, un espace L est un espace vectoriel de classes des fonctions dont la puissance d'exposant p est intégrable au sens de Lebesgue, où p est un nombre réel strictement positif. Le passage à la limite de l'exposant aboutit à la construction des espaces L de fonctions bornées. Les espaces L sont appelés espaces de Lebesgue. Identifiant les fonctions qui ne diffèrent que sur un ensemble négligeable, chaque espace L est un espace de Banach lorsque l'exposant est supérieur ou égal à 1.
Bellman equationA Bellman equation, named after Richard E. Bellman, is a necessary condition for optimality associated with the mathematical optimization method known as dynamic programming. It writes the "value" of a decision problem at a certain point in time in terms of the payoff from some initial choices and the "value" of the remaining decision problem that results from those initial choices. This breaks a dynamic optimization problem into a sequence of simpler subproblems, as Bellman's “principle of optimality" prescribes.
Uniform normIn mathematical analysis, the uniform norm (or ) assigns to real- or complex-valued bounded functions f defined on a set S the non-negative number This norm is also called the , the , the , or, when the supremum is in fact the maximum, the . The name "uniform norm" derives from the fact that a sequence of functions \left{f_n\right} converges to f under the metric derived from the uniform norm if and only if f_n converges to f uniformly.