Arithmétique d'intervallesEn mathématiques et en informatique, l'arithmétique des intervalles est une méthode de calcul consistant à manipuler des intervalles, par opposition à des nombres (par exemple entiers ou flottants), dans le but d'obtenir des résultats plus rigoureux. Cette approche permet de borner les erreurs d'arrondi ou de méthode et ainsi de développer des méthodes numériques qui fournissent des résultats fiables. L'arithmétique des intervalles est une branche de l'arithmétique des ordinateurs.
Méthode de SimpsonEn analyse numérique, la méthode de Simpson, du nom de Thomas Simpson, est une technique de calcul numérique d'une intégrale, c'est-à-dire le calcul approché de : Cette méthode utilise l'approximation d'ordre 2 de f par un polynôme quadratique P prenant les mêmes valeurs que f aux points d'abscisse a, b et m = . Pour déterminer l'expression de cette parabole (polynôme de degré 2), on utilise l'interpolation lagrangienne.
Extraction de racine carréeEn algorithmique et en analyse numérique, l'extraction de racine carrée est le processus qui consiste, étant donné un nombre, à en calculer la racine carrée. Il existe de nombreuses méthodes pour effectuer ce calcul. C'est un cas particulier de la recherche de calcul de la racine n-ième. La racine carrée d'un nombre pouvant être un nombre irrationnel, l'extraction de racine carrée est en général approchée. L'extraction de la racine carrée d'un nombre a est identique à la résolution de l'équation x - a = 0.
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
DiscrétisationEn mathématiques appliquées, la discrétisation est la transposition d'un état (fonction, modèle, variable, équation) en un équivalent . Ce procédé constitue en général une étape préliminaire à la résolution numérique d'un problème ou sa programmation sur machine. Un cas particulier est la dichotomisation où le nombre de classes discrètes est 2, où on peut approcher une variable continue en une variable binaire. La discrétisation est aussi reliée aux mathématiques discrètes, et compte parmi les composantes importantes de la programmation granulaire.
ApproximationUne approximation est une représentation imprécise ayant toutefois un lien étroit avec la quantité ou l’objet qu’elle reflète : approximation d’un nombre (de π par 3,14, de la vitesse instantanée d’un véhicule par sa vitesse moyenne entre deux points), d’une fonction mathématique, d’une solution d’un problème d’optimisation, d’une forme géométrique, d’une loi physique. Lorsqu’une partie de l’information nécessaire fait défaut, une approximation peut se substituer à une représentation exacte.
Algorithme du simplexeLalgorithme du simplexe est un algorithme de résolution des problèmes d'optimisation linéaire. Il a été introduit par George Dantzig à partir de 1947. C'est probablement le premier algorithme permettant de minimiser une fonction sur un ensemble défini par des inégalités. De ce fait, il a beaucoup contribué au démarrage de l'optimisation numérique. L'algorithme du simplexe a longtemps été la méthode la plus utilisée pour résoudre les problèmes d'optimisation linéaire.
Méthode de surrelaxation successiveEn analyse numérique, la méthode de surrelaxation successive (en anglais : Successive Overrelaxation Method{', abrégée en SOR) est une variante de la méthode de Gauss-Seidel pour résoudre un système d'équations linéaires. La convergence de cet algorithme est généralement plus rapide. Une approche similaire peut être appliquée à bon nombre de méthodes itératives. Cette méthode a été découverte simultanément par et Stan Frankel en 1950 dans le but de résoudre automatiquement des systèmes linéaires avec des ordinateurs.
Extrapolation (mathématiques)En mathématiques, l'extrapolation est le calcul d'un point d'une courbe dont on ne dispose pas d'équation, à partir d'autres points, lorsque l'abscisse du point à calculer est au-dessus du maximum ou en dessous du minimum des points connus. En dehors de cette particularité, les méthodes sont les mêmes que pour l'interpolation. C'est, d'autre part, une méthode développée par Norbert Wiener en traitement du signal pour la prédiction. Le choix de la méthode d'extrapolation dépend de la connaissance a priori de la méthode de génération des données.
Méthode de JacobiLa méthode de Jacobi, due au mathématicien allemand Karl Jacobi, est une méthode itérative de résolution d'un système matriciel de la forme Ax = b. Pour cela, on utilise une suite x qui converge vers un point fixe x, solution du système d'équations linéaires. On cherche à construire, pour x donné, la suite x = F(x) avec . où est une matrice inversible. où F est une fonction affine. La matrice B = MN est alors appelée matrice de Jacobi.