Opérateur différentielEn mathématiques, et plus précisément en analyse, un opérateur différentiel est un opérateur agissant sur des fonctions différentiables. Lorsque la fonction est à une seule variable, l'opérateur différentiel est construit à partir des dérivées ordinaires. Lorsque la fonction est à plusieurs variables, l'opérateur différentiel est construit à partir des dérivées partielles. Un opérateur différentiel agissant sur deux fonctions est appelé opérateur bidifférentiel.
Méthodes de quadrature de GaussDans le domaine mathématique de l'analyse numérique, les méthodes de quadrature sont des approximations de la valeur numérique d'une intégrale. En général, on remplace le calcul de l'intégrale par une somme pondérée prise en un certain nombre de points du domaine d'intégration (voir calcul numérique d'une intégrale pour plus d'informations). La méthode de quadrature de Gauss, du nom de Carl Friedrich Gauss, est une méthode de quadrature exacte pour un polynôme de degré 2n – 1 avec n points pris sur le domaine d'intégration.
Méthode du gradient conjuguévignette|Illustration de la méthode du gradient conjugué. En analyse numérique, la méthode du gradient conjugué est un algorithme pour résoudre des systèmes d'équations linéaires dont la matrice est symétrique définie positive. Cette méthode, imaginée en 1950 simultanément par Cornelius Lanczos, Eduard Stiefel et Magnus Hestenes, est une méthode itérative qui converge en un nombre fini d'itérations (au plus égal à la dimension du système linéaire).
Interpolation polynomialeEn mathématiques, en analyse numérique, l'interpolation polynomiale est une technique d'interpolation d'un ensemble de données ou d'une fonction par un polynôme. En d'autres termes, étant donné un ensemble de points (obtenu, par exemple, à la suite d'une expérience), on cherche un polynôme qui passe par tous ces points, p(xi) = yi, et éventuellement vérifie d'autres conditions, de degré si possible le plus bas. Cependant, dans le cas de l'interpolation lagrangienne, par exemple, le choix des points d'interpolation est critique.
Suite de polynômes orthogonauxEn mathématiques, une suite de polynômes orthogonaux est une suite infinie de polynômes p0(x), p1(x), p2(x) ... à coefficients réels, dans laquelle chaque pn(x) est de degré n, et telle que les polynômes de la suite sont orthogonaux deux à deux pour un produit scalaire de fonctions donné. Cette notion est utilisée par exemple en cryptologie ou en analyse numérique. Elle permet de résoudre de nombreux problèmes de physique, comme en mécanique des fluides ou en traitement du signal.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Équation différentielle linéaireUne équation différentielle linéaire est un cas particulier d'équation différentielle pour lequel on peut appliquer des procédés de superposition de solutions, et exploiter des résultats d'algèbre linéaire. De nombreuses équations différentielles de la physique vérifient la propriété de linéarité. De plus, les équations différentielles linéaires apparaissent naturellement en perturbant une équation différentielle (non linéaire) autour d'une de ses solutions.
Polynôme de Gegenbauerthumb|right|320px|Tracé du polynôme de Gegenbauer C(x) pour n=10 et m=1 sur le plan complexe entre -2-2i et 2+2i En mathématiques, les polynômes de Gegenbauer ou polynômes ultrasphériques sont une classe de polynômes orthogonaux. Ils sont nommés ainsi en l'honneur de Leopold Gegenbauer (1849-1903). Ils sont obtenus à partir des séries hypergéométriques dans les cas où la série est en fait finie : où est la factorielle décroissante.
Classical orthogonal polynomialsIn mathematics, the classical orthogonal polynomials are the most widely used orthogonal polynomials: the Hermite polynomials, Laguerre polynomials, Jacobi polynomials (including as a special case the Gegenbauer polynomials, Chebyshev polynomials, and Legendre polynomials). They have many important applications in such areas as mathematical physics (in particular, the theory of random matrices), approximation theory, numerical analysis, and many others.
Interpolation newtonienneEn analyse numérique, l'interpolation newtonienne, du nom d'Isaac Newton, est une méthode d'interpolation polynomiale permettant d'obtenir le polynôme de Lagrange comme combinaison linéaire de polynômes de la « base newtonienne ». Contrairement à l'interpolation d'Hermite par exemple, cette méthode ne diffère de l'interpolation lagrangienne que par la façon dont le polynôme est calculé, le polynôme d'interpolation qui en résulte est le même. Pour cette raison on parle aussi plutôt de la forme de Newton du polynôme de Lagrange.