Hilbert's second problemIn mathematics, Hilbert's second problem was posed by David Hilbert in 1900 as one of his 23 problems. It asks for a proof that the arithmetic is consistent – free of any internal contradictions. Hilbert stated that the axioms he considered for arithmetic were the ones given in , which include a second order completeness axiom. In the 1930s, Kurt Gödel and Gerhard Gentzen proved results that cast new light on the problem. Some feel that Gödel's theorems give a negative solution to the problem, while others consider Gentzen's proof as a partial positive solution.
DiscrétisationEn mathématiques appliquées, la discrétisation est la transposition d'un état (fonction, modèle, variable, équation) en un équivalent . Ce procédé constitue en général une étape préliminaire à la résolution numérique d'un problème ou sa programmation sur machine. Un cas particulier est la dichotomisation où le nombre de classes discrètes est 2, où on peut approcher une variable continue en une variable binaire. La discrétisation est aussi reliée aux mathématiques discrètes, et compte parmi les composantes importantes de la programmation granulaire.
Méthode sans maillageIn the field of numerical analysis, meshfree methods are those that do not require connection between nodes of the simulation domain, i.e. a mesh, but are rather based on interaction of each node with all its neighbors. As a consequence, original extensive properties such as mass or kinetic energy are no longer assigned to mesh elements but rather to the single nodes. Meshfree methods enable the simulation of some otherwise difficult types of problems, at the cost of extra computing time and programming effort.
Convergence uniformeLa convergence uniforme d'une suite de fonctions est une forme de convergence plus exigeante que la convergence simple. La convergence devient uniforme quand toutes les suites avancent vers leur limite respective avec une sorte de « mouvement d'ensemble ». Dans le cas de fonctions numériques d'une variable, la notion prend une forme d'« évidence » géométrique : le graphe de la fonction f se « rapproche » de celui de la limite. Soient X un ensemble, (Y, d) un espace métrique, et A un sous-ensemble de X.
Consistent estimatorIn statistics, a consistent estimator or asymptotically consistent estimator is an estimator—a rule for computing estimates of a parameter θ0—having the property that as the number of data points used increases indefinitely, the resulting sequence of estimates converges in probability to θ0. This means that the distributions of the estimates become more and more concentrated near the true value of the parameter being estimated, so that the probability of the estimator being arbitrarily close to θ0 converges to one.
Méthode du gradient conjuguévignette|Illustration de la méthode du gradient conjugué. En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire).
Rayon de convergenceLe rayon de convergence d'une série entière est le nombre réel positif ou +∞ égal à la borne supérieure de l'ensemble des modules des nombres complexes où la série converge (au sens classique de la convergence simple): Si R est le rayon de convergence d'une série entière, alors la série est absolument convergente sur le disque ouvert D(0, R) de centre 0 et de rayon R. Ce disque est appelé disque de convergence. Cette convergence absolue entraine ce qui est parfois qualifié de convergence inconditionnelle : la valeur de la somme en tout point de ce disque ne dépend pas de l'ordre des termes.
Commande optimaleLa théorie de la commande optimale permet de déterminer la commande d'un système qui minimise (ou maximise) un critère de performance, éventuellement sous des contraintes pouvant porter sur la commande ou sur l'état du système. Cette théorie est une généralisation du calcul des variations. Elle comporte deux volets : le principe du maximum (ou du minimum, suivant la manière dont on définit l'hamiltonien) dû à Lev Pontriaguine et à ses collaborateurs de l'institut de mathématiques Steklov , et l'équation de Hamilton-Jacobi-Bellman, généralisation de l'équation de Hamilton-Jacobi, et conséquence directe de la programmation dynamique initiée aux États-Unis par Richard Bellman.
Convergence simpleEn mathématiques, la convergence simple ou ponctuelle est une notion de convergence dans un espace fonctionnel, c’est-à-dire dans un ensemble de fonctions entre deux espaces topologiques. C'est une définition peu exigeante : elle est plus facile à établir que d'autres formes de convergence, notamment la convergence uniforme. Le passage à la limite possède donc moins de propriétés : une suite de fonctions continues peut ainsi converger simplement vers une fonction qui ne l'est pas.
Convergence de variables aléatoiresDans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe).