Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Théorie de la perturbation (mécanique quantique)En mécanique quantique, la théorie de la perturbation, ou théorie des perturbations, est un ensemble de schémas d'approximations liée à une perturbation mathématique utilisée pour décrire un système quantique complexe de façon simplifiée. L'idée est de partir d'un système simple et d'appliquer graduellement un hamiltonien « perturbant » qui représente un écart léger par rapport à l'équilibre du système (perturbation).
Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Théorie des perturbationsLa théorie des perturbations est un domaine des mathématiques, qui consiste à étudier les contextes où il est possible de trouver une solution approchée à une équation en partant de la solution d'un problème plus simple. Plus précisément, on cherche une solution approchée à une équation (E) (dépendante d'un paramètre λ), sachant que la solution de l'équation (E) (correspondant à la valeur λ=0) est connue exactement. L'équation mathématique (E) peut être par exemple une équation algébrique ou une équation différentielle.
Generalized eigenvectorIn linear algebra, a generalized eigenvector of an matrix is a vector which satisfies certain criteria which are more relaxed than those for an (ordinary) eigenvector. Let be an -dimensional vector space and let be the matrix representation of a linear map from to with respect to some ordered basis. There may not always exist a full set of linearly independent eigenvectors of that form a complete basis for . That is, the matrix may not be diagonalizable.
Algorithme de recherche de valeur propreUn problème important en analyse numérique consiste à développer des algorithmes efficaces et stables pour trouver les valeurs propres d'une matrice. Ces algorithmes de recherche de valeurs propres peuvent être étendus pour donner les vecteurs propres associés. Valeur propre, vecteur propre et espace propre Pour une matrice carrée A de taille n × n réelle ou complexe, une valeur propre λ et son vecteur propre généralisé associé v sont un couple vérifiant la relation où v est un vecteur colonne n × 1 non nul, I la matrice identité de taille n × n, k un entier positif.
Sous-espace stableEn algèbre linéaire, un endomorphisme laisse stable un sous-espace vectoriel F quand les éléments de F ont pour image un élément de F. La recherche de sous-espaces stables est étroitement liée à la théorie de la réduction des endomorphismes. Soient E un espace vectoriel et u un endomorphisme de E. Un sous-espace vectoriel F de E est dit stable par u quand , c'est-à-dire : . Dans ce cas, u induit sur F un endomorphisme L'endomorphisme induit est la double restriction de l'endomorphisme initial avec à la fois un nouvel ensemble de départ et un nouvel ensemble d'arrivée.
Defective matrixIn linear algebra, a defective matrix is a square matrix that does not have a complete basis of eigenvectors, and is therefore not diagonalizable. In particular, an n × n matrix is defective if and only if it does not have n linearly independent eigenvectors. A complete basis is formed by augmenting the eigenvectors with generalized eigenvectors, which are necessary for solving defective systems of ordinary differential equations and other problems.
Matrice tridiagonaleEn mathématiques, en algèbre linéaire, une matrice tridiagonale est une matrice dont tous les coefficients qui ne sont ni sur la diagonale principale, ni sur la diagonale juste au-dessus, ni sur la diagonale juste en dessous, sont nuls. Par exemple, la matrice suivante est tridiagonale : Une matrice , dont on note les coefficients a, est dite tridiagonale si : a = 0 pour tous (i, j) tels que i – j > 1, autrement dit si c'est une matrice de Hessenberg à la fois supérieure et inférieure.
Sous-espace vectorielEn algèbre linéaire, un sous-espace vectoriel d'un espace vectoriel E, est une partie non vide F, de E, stable par combinaisons linéaires. Cette stabilité s'exprime par : la somme de deux vecteurs de F appartient à F ; le produit d'un vecteur de F par un scalaire appartient à F. Muni des lois induites, F est alors un espace vectoriel. L'intersection d'une famille non vide de sous-espaces de E est un sous-espace de E. La réunion d'une famille non vide de sous-espaces n'en est généralement pas un ; le sous-espace engendré par cette réunion est la somme de cette famille.