Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Adjugate matrixIn linear algebra, the adjugate or classical adjoint of a square matrix A is the transpose of its cofactor matrix and is denoted by adj(A). It is also occasionally known as adjunct matrix, or "adjoint", though the latter term today normally refers to a different concept, the adjoint operator which for a matrix is the conjugate transpose. The product of a matrix with its adjugate gives a diagonal matrix (entries not on the main diagonal are zero) whose diagonal entries are the determinant of the original matrix: where I is the identity matrix of the same size as A.
Règle de CramerLa règle de Cramer (ou méthode de Cramer) est un théorème en algèbre linéaire qui donne la solution d'un système de Cramer, c'est-à-dire un système d'équations linéaires avec autant d'équations que d'inconnues et dont le déterminant de la matrice de coefficients est non nul, sous forme de quotients de déterminants. En calcul, la méthode est moins efficace que la méthode de résolution de Gauss pour des grands systèmes (à partir de quatre équations) dont les coefficients dans le premier membre sont explicitement donnés.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Matrice triangulairevignette|algèbre linéaire En algèbre linéaire, une matrice triangulaire est une matrice carrée dont tous les coefficients sont nuls d’un côté ou de l’autre de la diagonale principale. C’est en particulier le cas si la matrice est diagonale. Une matrice est triangulaire stricte si elle est triangulaire et que tous ses coefficients diagonaux sont nuls. Dans ce qui suit, on considérera un anneau unitaire R non forcément commutatif, des R-modules à gauche et des R-modules à droite.
Laplace expansionIn linear algebra, the Laplace expansion, named after Pierre-Simon Laplace, also called cofactor expansion, is an expression of the determinant of an n × n matrix B as a weighted sum of minors, which are the determinants of some (n − 1) × (n − 1) submatrices of B. Specifically, for every i, where is the entry of the ith row and jth column of B, and is the determinant of the submatrix obtained by removing the ith row and the jth column of B. The term is called the cofactor of in B.
Algèbre multilinéaireEn mathématiques, l’algèbre multilinéaire étend les méthodes de l’algèbre linéaire. Tout comme l’algèbre linéaire est bâtie sur le concept de vecteur et développe la théorie des espaces vectoriels, l’algèbre multilinéaire est bâtie sur le concept de tenseur et développe la théorie des espaces tensoriels. Dans les applications, de nombreux types de tenseurs surviennent. La théorie se veut exhaustive et comprend l'étude d'un certain nombre d'espaces et l'exposé de leurs relations.
Polynôme caractéristiqueEn mathématiques, et plus particulièrement en algèbre linéaire, à toute matrice carrée à coefficients dans un anneau commutatif ou à tout endomorphisme d'un espace vectoriel de dimension finie est associé un polynôme appelé polynôme caractéristique. Il renferme d'importantes informations sur la matrice ou sur l'endomorphisme, comme ses valeurs propres, son déterminant et sa trace. Le théorème de Cayley-Hamilton assure que toute matrice carrée annule son polynôme caractéristique.
Décomposition LUEn algèbre linéaire, la décomposition LU est une méthode de décomposition d'une matrice comme produit d'une matrice triangulaire inférieure (comme lower, inférieure en anglais) par une matrice triangulaire supérieure (comme upper, supérieure). Cette décomposition est utilisée en analyse numérique pour résoudre des systèmes d'équations linéaires. Soit une matrice carrée. On dit que admet une décomposition LU s'il existe une matrice triangulaire inférieure formée de 1 sur la diagonale, notée , et une matrice triangulaire supérieure, notée , qui vérifient l'égalité Il n'est pas toujours vrai qu'une matrice admette une décomposition LU.
Algèbre extérieureEn mathématiques, et plus précisément en algèbre et en analyse vectorielle, l'algèbre extérieure d'un espace vectoriel E est une algèbre associative graduée, notée . La multiplication entre deux éléments a et b est appelée le produit extérieur et est notée . Le carré de tout élément de E est zéro (), on dit que la multiplication est alternée, ce qui entraîne que pour deux éléments de E : (la loi est « anti-commutative »). L'algèbre extérieure est aussi appelée algèbre de Grassmann nommée ainsi en l'honneur de Hermann Grassmann.