Matrice par blocsvignette|Un matrice présente une structure par blocs si l'on peut isoler les termes non nuls dans des sous-matrices (ici la structure « diagonale par blocs » d'une réduite de Jordan). On appelle matrice par blocs une matrice divisée en blocs à partir d'un groupement quelconque de termes contigus de sa diagonale. Chaque bloc étant indexé comme on indicerait les éléments d'une matrice, la somme et le produit de deux matrices partitionnées suivant les mêmes tailles de bloc, s'obtiennent avec les mêmes règles formelles que celles des composantes (mais en veillant à l'ordre des facteurs dans les produits matriciels!).
Mineur (algèbre linéaire)vignette|Il est possible d'utiliser les mineurs d'ordre 2 d'une matrice de dimension 3 pour calculer son déterminant. En algèbre linéaire, les mineurs d'une matrice sont les déterminants de ses sous-matrices carrées. Ainsi si A est une matrice de taille m par n, on appelle mineur d'ordre k le déterminant d'une sous-matrice carrée de taille k obtenue en supprimant m – k lignes et n – k colonnes de la matrice initiale, ce que l'on peut noter det A, où I ( J) est une partie à k éléments de {1, ..., m ( n)}.
Composantes d'un vecteurvignette|Composantes d'un vecteur dans un espace géométrique à trois dimensions, x, y et z. Dans le cas du concept géométrique classique de vecteur, il existe une identification complète entre ses « composantes » et les « coordonnées » qui le représentent. Cependant, il existe d'autres types d'espaces vectoriels (comme, par exemple, l'ensemble des polynômes d'ordre n), dans lesquels le concept de coordonnée n'a pas la généralité de l'idée de composante.
OrthonormalityIn linear algebra, two vectors in an inner product space are orthonormal if they are orthogonal (or perpendicular along a line) unit vectors. A set of vectors form an orthonormal set if all vectors in the set are mutually orthogonal and all of unit length. An orthonormal set which forms a basis is called an orthonormal basis. The construction of orthogonality of vectors is motivated by a desire to extend the intuitive notion of perpendicular vectors to higher-dimensional spaces.
Definite quadratic formIn mathematics, a definite quadratic form is a quadratic form over some real vector space V that has the same sign (always positive or always negative) for every non-zero vector of V. According to that sign, the quadratic form is called positive-definite or negative-definite. A semidefinite (or semi-definite) quadratic form is defined in much the same way, except that "always positive" and "always negative" are replaced by "never negative" and "never positive", respectively.
Degenerate bilinear formIn mathematics, specifically linear algebra, a degenerate bilinear form f (x, y ) on a vector space V is a bilinear form such that the map from V to V∗ (the dual space of V ) given by v ↦ (x ↦ f (x, v )) is not an isomorphism. An equivalent definition when V is finite-dimensional is that it has a non-trivial kernel: there exist some non-zero x in V such that for all A nondegenerate or nonsingular form is a bilinear form that is not degenerate, meaning that is an isomorphism, or equivalently in finite dimensions, if and only if for all implies that .
Adjugate matrixIn linear algebra, the adjugate or classical adjoint of a square matrix A is the transpose of its cofactor matrix and is denoted by adj(A). It is also occasionally known as adjunct matrix, or "adjoint", though the latter term today normally refers to a different concept, the adjoint operator which for a matrix is the conjugate transpose. The product of a matrix with its adjugate gives a diagonal matrix (entries not on the main diagonal are zero) whose diagonal entries are the determinant of the original matrix: where I is the identity matrix of the same size as A.
Base dualeEn algèbre linéaire, la base duale est une base de l'espace dual E* d'un espace vectoriel E de dimension finie, construite à partir d'une base de E. Il est rappelé que E* est l'espace des formes linéaires sur E. La réduction des formes quadratiques est un exemple dans lequel les bases duales peuvent intervenir. Elles interviennent aussi pour transporter des structures géométriques d'un espace vectoriel réel ou complexe sur son espace dual, ce qui intervient notamment en géométrie différentielle.
Application transposéeEn mathématiques et plus précisément en algèbre linéaire, l'application transposée d'une application linéaire entre deux espaces vectoriels est l'application entre leurs duals définie par : ou encore, si est le crochet de dualité de : La forme linéaire résultante est nommée application transposée de le long de . Cette définition se généralise à des K-modules à droite sur un anneau (non nécessairement commutatif), en se souvenant que le dual d'un K-module à droite est un K-module à gauche, ou encore un module à droite sur l'anneau opposé K.
AntimorphismeEn mathématiques, un antimorphisme (parfois appelé antihomomorphisme), est une application entre deux structures algébriques qui renverse l'ordre des opérations. Considérons les magmas et , c'est-à-dire que et sont deux ensembles munis respectivement de deux lois de composition interne notées et . Une application est un antimorphisme de dans si Autrement dit, si on définit le magma opposé par et alors est un antimorphisme de dans si et seulement si est un morphisme de dans .