Matrix decompositionIn the mathematical discipline of linear algebra, a matrix decomposition or matrix factorization is a factorization of a matrix into a product of matrices. There are many different matrix decompositions; each finds use among a particular class of problems. In numerical analysis, different decompositions are used to implement efficient matrix algorithms. For instance, when solving a system of linear equations , the matrix A can be decomposed via the LU decomposition.
Réduction de JordanLa réduction de Jordan est la traduction matricielle de la réduction des endomorphismes introduite par Camille Jordan. Cette réduction est tellement employée, en particulier en analyse pour la résolution d'équations différentielles ou pour déterminer le terme général de certaines suites récurrentes, qu'on la nomme parfois « jordanisation des endomorphismes ». Elle consiste à exprimer la matrice d'un endomorphisme dans une base, dite base de Jordan, où l'expression de l'endomorphisme est réduite.
Pierre-Simon de LaplacePierre-Simon de Laplace ou Pierre-Simon Laplace, comte Laplace, puis de Laplace, né le à Beaumont-en-Auge et mort le à Paris, est un mathématicien, astronome, physicien et homme politique français. Laplace est l'un des principaux scientifiques de la période napoléonienne. Il a apporté des contributions fondamentales dans différents champs des mathématiques, de l'astronomie et de la théorie des probabilités. Il a été l'un des scientifiques les plus influents de son temps, notamment par son affirmation du déterminisme.
Point fixeEn mathématiques, pour une application f d'un ensemble E dans lui-même, un élément x de E est un point fixe de f si f(x) = x. Exemples : dans le plan, la symétrie par rapport à un point A admet un unique point fixe : A ; l'application inverse (définie sur l'ensemble des réels non nuls) admet deux points fixes : –1 et 1, solutions de l'équation équivalente à l'équation . Graphiquement, les points fixes d'une fonction f (d'une variable réelle, à valeurs réelles) sont les points d'intersection de la droite d'équation y = x avec la courbe d'équation y = f(x).
Householder transformationIn linear algebra, a Householder transformation (also known as a Householder reflection or elementary reflector) is a linear transformation that describes a reflection about a plane or hyperplane containing the origin. The Householder transformation was used in a 1958 paper by Alston Scott Householder. Its analogue over general inner product spaces is the Householder operator. The reflection hyperplane can be defined by its normal vector, a unit vector (a vector with length ) that is orthogonal to the hyperplane.
Matrice de HessenbergEn algèbre linéaire, une matrice de Hessenberg est une matrice carrée qui est « presque » triangulaire. Pour être exact, dans une matrice de Hessenberg dite « supérieure », tous les éléments se trouvant en dessous de la première sous-diagonale (i.e., la diagonale en dessous de la diagonale principale) sont nuls, et dans une matrice de Hessenberg dite « inférieure », tous les éléments situés au-dessus de la première super-diagonale (i.e., la diagonale au-dessus de la diagonale principale) sont nuls.
Matrice tridiagonaleEn mathématiques, en algèbre linéaire, une matrice tridiagonale est une matrice dont tous les coefficients qui ne sont ni sur la diagonale principale, ni sur la diagonale juste au-dessus, ni sur la diagonale juste en dessous, sont nuls. Par exemple, la matrice suivante est tridiagonale : Une matrice , dont on note les coefficients a, est dite tridiagonale si : a = 0 pour tous (i, j) tels que i – j > 1, autrement dit si c'est une matrice de Hessenberg à la fois supérieure et inférieure.
Inverse iterationIn numerical analysis, inverse iteration (also known as the inverse power method) is an iterative eigenvalue algorithm. It allows one to find an approximate eigenvector when an approximation to a corresponding eigenvalue is already known. The method is conceptually similar to the power method. It appears to have originally been developed to compute resonance frequencies in the field of structural mechanics.
Matrice compagnonEn algèbre linéaire, la matrice compagnon du polynôme unitaire est la matrice carrée suivante : mais il existe d'autres conventions : la matrice transposée de celle ci-dessus ; une variante de cette transposée : la matrice Le polynôme caractéristique de C(p) est égal à p (ou (–1)p selon la convention choisie pour le polynôme caractéristique) ; en ce sens, la matrice C(p) est la « compagne » du polynôme p. Si le polynôme p possède n racines distinctes λ1, ...
Sous-espace stableEn algèbre linéaire, un endomorphisme laisse stable un sous-espace vectoriel F quand les éléments de F ont pour image un élément de F. La recherche de sous-espaces stables est étroitement liée à la théorie de la réduction des endomorphismes. Soient E un espace vectoriel et u un endomorphisme de E. Un sous-espace vectoriel F de E est dit stable par u quand , c'est-à-dire : . Dans ce cas, u induit sur F un endomorphisme L'endomorphisme induit est la double restriction de l'endomorphisme initial avec à la fois un nouvel ensemble de départ et un nouvel ensemble d'arrivée.