Matrice diagonalisableEn mathématiques, une matrice diagonalisable est une matrice carrée semblable à une matrice diagonale. Cette propriété est équivalente à l'existence d'une base de vecteurs propres, ce qui permet de définir de manière analogue un endomorphisme diagonalisable d'un espace vectoriel. Le fait qu'une matrice soit diagonalisable dépend du corps dans lequel sont cherchées les valeurs propres, ce que confirme la caractérisation par le fait que le polynôme minimal soit scindé à racines simples.
Interpolation bilinéaireL'interpolation bilinéaire est une méthode d'interpolation pour les fonctions de deux variables sur une grille régulière. Elle permet de calculer la valeur d'une fonction en un point quelconque, à partir de ses deux plus proches voisins dans chaque direction. C'est une méthode très utilisée en pour le , qui permet d'obtenir de meilleurs résultats que l'interpolation par plus proche voisin, tout en restant de complexité raisonnable.
Trigonometric interpolationIn mathematics, trigonometric interpolation is interpolation with trigonometric polynomials. Interpolation is the process of finding a function which goes through some given data points. For trigonometric interpolation, this function has to be a trigonometric polynomial, that is, a sum of sines and cosines of given periods. This form is especially suited for interpolation of periodic functions. An important special case is when the given data points are equally spaced, in which case the solution is given by the discrete Fourier transform.
Algorithme récursifUn algorithme récursif est un algorithme qui résout un problème en calculant des solutions d'instances plus petites du même problème. L'approche récursive est un des concepts de base en informatique. Les premiers langages de programmation qui ont autorisé l'emploi de la récursivité sont LISP et Algol 60. Depuis, tous les langages de programmation généraux réalisent une implémentation de la récursivité. Pour répéter des opérations, typiquement, un algorithme récursif s'appelle lui-même.
Jordan matrixIn the mathematical discipline of matrix theory, a Jordan matrix, named after Camille Jordan, is a block diagonal matrix over a ring R (whose identities are the zero 0 and one 1), where each block along the diagonal, called a Jordan block, has the following form: Every Jordan block is specified by its dimension n and its eigenvalue , and is denoted as Jλ,n. It is an matrix of zeroes everywhere except for the diagonal, which is filled with and for the superdiagonal, which is composed of ones.
Matrice normaleEn algèbre linéaire, une matrice carrée A à coefficients complexes est une matrice normale si elle commute avec sa matrice adjointe A*, c'est-à-dire si A⋅A* = A*⋅A. Toutes les matrices hermitiennes, ou unitaires sont normales, en particulier, parmi les matrices à coefficients réels, toutes les matrices symétriques, antisymétriques ou orthogonales. Ce théorème — cas particulier du théorème de décomposition de Schur — est connu sous le nom de théorème spectral, et les éléments diagonaux de UAU sont alors les valeurs propres de A.
Matrix ringIn abstract algebra, a matrix ring is a set of matrices with entries in a ring R that form a ring under matrix addition and matrix multiplication . The set of all n × n matrices with entries in R is a matrix ring denoted Mn(R) (alternative notations: Matn(R) and Rn×n). Some sets of infinite matrices form infinite matrix rings. Any subring of a matrix ring is a matrix ring. Over a rng, one can form matrix rngs. When R is a commutative ring, the matrix ring Mn(R) is an associative algebra over R, and may be called a matrix algebra.
Interpolation lagrangienneEn analyse numérique, les polynômes de Lagrange, du nom de Joseph-Louis Lagrange, permettent d'interpoler une série de points par un polynôme qui passe exactement par ces points appelés aussi nœuds. Cette technique d'interpolation polynomiale a été découverte par Edward Waring en 1779 et redécouverte plus tard par Leonhard Euler en 1783. C'est un cas particulier du théorème des restes chinois. On se donne n + 1 points (avec les xi distincts deux à deux).
Récursion mutuelleEt mathématiques et en informatique, la récursion mutuelle est une récursion où deux (ou plus) fonctions mathématiques ou programmatiques sont définies l'une en termes de l'autre. En informatique, cependant, on utilise plus souvent le terme "récursivité croisée". Par exemple, deux fonctions A(x) and B(x) définies comme suit : La récursion mutuelle est très commune dans le style de programmation fonctionnelle et est souvent utilisée pour la programmation en LISP, Scheme, ML et celle de langages similaires.
Complément de SchurEn algèbre linéaire et plus précisément en théorie des matrices, le complément de Schur est défini comme suit. Soit une matrice de dimension (p+q)×(p+q), où les blocs A, B, C, D sont des matrices de dimensions respectives p×p, p×q, q×p et q×q, avec D inversible. Alors, le complément de Schur du bloc D de la matrice M est constitué par la matrice de dimension p×p suivante : Lorsque B est la transposée de C, la matrice M est symétrique définie positive si et seulement si D et son complément de Schur dans M le sont.