Matrice antisymétriqueEn mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée. Une matrice carrée A à coefficients dans un anneau quelconque est dite antisymétrique si sa transposée est égale à son opposée, c'est-à-dire si elle satisfait à l'équation : A = –A ou encore, en l'écrivant avec des coefficients sous la forme A = (ai,j), si : pour tout i et j, aj,i = –ai,j Les matrices suivantes sont antisymétriques : Le cas où la matrice est à coefficients dans un anneau de caractéristique 2 est très particulier.
Trace (algèbre)En algèbre linéaire, la trace d'une matrice carrée A est définie comme la somme de ses coefficients diagonaux et souvent notée Tr(A). La trace peut être vue comme une forme linéaire sur l'espace vectoriel des matrices. Elle vérifie l'identité : Tr(AB) = Tr(BA), et est en conséquence invariante par similitude. De façon voisine, si u est un endomorphisme d'un espace vectoriel de dimension finie sur un corps commutatif K, on peut définir la trace de l'opérateur u, par exemple comme trace de sa matrice dans n'importe quelle base.
Mineur (algèbre linéaire)vignette|Il est possible d'utiliser les mineurs d'ordre 2 d'une matrice de dimension 3 pour calculer son déterminant. En algèbre linéaire, les mineurs d'une matrice sont les déterminants de ses sous-matrices carrées. Ainsi si A est une matrice de taille m par n, on appelle mineur d'ordre k le déterminant d'une sous-matrice carrée de taille k obtenue en supprimant m – k lignes et n – k colonnes de la matrice initiale, ce que l'on peut noter det A, où I ( J) est une partie à k éléments de {1, ..., m ( n)}.
Matrice nulleEn mathématiques, et en particulier en algèbre linéaire, une matrice nulle est une matrice dont tous les coefficients sont nuls. Des exemples de matrices nulles sont : L'ensemble des matrices de dimension à coefficients dans un anneau forme un anneau . La matrice nulle , dans est la matrice ayant tous les coefficients égaux à , où est l'élément neutre additif de . La matrice nulle est l'élément neutre additif de .
Laplace expansionIn linear algebra, the Laplace expansion, named after Pierre-Simon Laplace, also called cofactor expansion, is an expression of the determinant of an n × n matrix B as a weighted sum of minors, which are the determinants of some (n − 1) × (n − 1) submatrices of B. Specifically, for every i, where is the entry of the ith row and jth column of B, and is the determinant of the submatrix obtained by removing the ith row and the jth column of B. The term is called the cofactor of in B.
Diagonale principaleEn algèbre linéaire, la diagonale principale d'une matrice carrée est la diagonale qui descend du coin en haut à gauche jusqu'au coin en bas à droite. Par exemple, la matrice carrée d'ordre 3 qui suit a des 1 sur sa diagonale principale : Il s'agit en particulier de la matrice identité d'ordre 3. Ici, la diagonale principale est composée de 1 et on a également 2 diagonales « secondaires » de part et d'autre de la diagonale principale, composées par des 2 et l'autre par des 3.
Leibniz formula for determinantsIn algebra, the Leibniz formula, named in honor of Gottfried Leibniz, expresses the determinant of a square matrix in terms of permutations of the matrix elements. If is an matrix, where is the entry in the -th row and -th column of , the formula is where is the sign function of permutations in the permutation group , which returns and for even and odd permutations, respectively. Another common notation used for the formula is in terms of the Levi-Civita symbol and makes use of the Einstein summation notation, where it becomes which may be more familiar to physicists.
Adjugate matrixIn linear algebra, the adjugate or classical adjoint of a square matrix A is the transpose of its cofactor matrix and is denoted by adj(A). It is also occasionally known as adjunct matrix, or "adjoint", though the latter term today normally refers to a different concept, the adjoint operator which for a matrix is the conjugate transpose. The product of a matrix with its adjugate gives a diagonal matrix (entries not on the main diagonal are zero) whose diagonal entries are the determinant of the original matrix: where I is the identity matrix of the same size as A.
Matrices congruentesEn algèbre linéaire, deux matrices carrées A et B (de même taille et à coefficients dans un même corps K) sont dites congruentes si elles représentent la même forme bilinéaire dans deux bases différentes, c'est-à-dire s'il existe une matrice inversible P telle que où P est la transposée de P. La congruence définit une relation d'équivalence sur les matrices carrées de même taille à coefficients dans K. Deux matrices congruentes ont même rang.
IndéterminéeExemple de polynôme à coefficients entiers, d'indéterminée . En mathématiques, une indéterminée est le concept permettant de formaliser des objets comme les polynômes formels, les fractions rationnelles ou encore les séries formelles. On la désigne en général par la lettre majuscule X. L'indéterminée permet de définir des structures algébriques parfois plus simples que leurs équivalents en analyse. Par exemple, sur tout anneau intègre, le corps des fractions rationnelles, défini à l'aide de l'indéterminée X, diffère de la structure équivalente des fonctions rationnelles de la variable x.