Algèbre extérieureEn mathématiques, et plus précisément en algèbre et en analyse vectorielle, l'algèbre extérieure d'un espace vectoriel E est une algèbre associative graduée, notée . La multiplication entre deux éléments a et b est appelée le produit extérieur et est notée . Le carré de tout élément de E est zéro (), on dit que la multiplication est alternée, ce qui entraîne que pour deux éléments de E : (la loi est « anti-commutative »). L'algèbre extérieure est aussi appelée algèbre de Grassmann nommée ainsi en l'honneur de Hermann Grassmann.
Matrice orthogonaleUne matrice carrée A (n lignes, n colonnes) à coefficients réels est dite orthogonale si A A = I, où A est la matrice transposée de A et I est la matrice identité. Des exemples de matrices orthogonales sont les matrices de rotation, comme la matrice de rotation plane d'angle θ ou les matrices de permutation, comme Une matrice réelle A est orthogonale si et seulement si elle est inversible et son inverse est égale à sa transposée : A = A. Une matrice carrée est orthogonale si et seulement si ses vecteurs colonnes sont orthogonaux deux à deux et de norme 1.
Groupe général linéaireEn mathématiques, le groupe général linéaire — ou groupe linéaire — de degré n d’un corps commutatif K (ou plus généralement d'un anneau commutatif unifère) est le groupe des matrices inversibles de taille n à coefficients dans K, muni du produit matriciel. On le note GL(K) ou GL(n, K) et il représente les automorphismes de l’espace vectoriel K. Ce groupe est non abélien dès lors que n > 1. Lorsque K est un corps commutatif, l’ensemble GL(n, K) est en outre un ouvert pour la topologie de Zariski.
Matrice transposéeEn mathématiques, la matrice transposée (ou la transposée) d'une matrice est la matrice , également notée ou , obtenue en échangeant les lignes et les colonnes de . Plus précisément, si on note pour et pour les coefficients respectivement de et de alors pour tout on a . Par exemple, si alors On suppose ici que K est un anneau commutatif. On note et deux matrices quelconques de et un scalaire. L'application « transposition » est linéaire : La transposée de est . Par conséquent, l'application « transposition » est bijective.
Groupe de LieEn mathématiques, un groupe de Lie est un groupe qui est aussi une variété différentielle. D'une part, un groupe est une structure algébrique munie d'une opération binaire, typiquement une multiplication et son inverse la division, ou alors une addition et son inverse la soustraction. D'autre part, une variété est un espace qui localement ressemble à un espace euclidien. Ici, on s'intéresse à un ensemble qui est à la fois un groupe et une variété : nous pouvons multiplier les éléments entre eux, calculer l'inverse d'un élément.
Trace (algèbre)En algèbre linéaire, la trace d'une matrice carrée A est définie comme la somme de ses coefficients diagonaux et souvent notée Tr(A). La trace peut être vue comme une forme linéaire sur l'espace vectoriel des matrices. Elle vérifie l'identité : Tr(AB) = Tr(BA), et est en conséquence invariante par similitude. De façon voisine, si u est un endomorphisme d'un espace vectoriel de dimension finie sur un corps commutatif K, on peut définir la trace de l'opérateur u, par exemple comme trace de sa matrice dans n'importe quelle base.
Definite matrixIn mathematics, a symmetric matrix with real entries is positive-definite if the real number is positive for every nonzero real column vector where is the transpose of . More generally, a Hermitian matrix (that is, a complex matrix equal to its conjugate transpose) is positive-definite if the real number is positive for every nonzero complex column vector where denotes the conjugate transpose of Positive semi-definite matrices are defined similarly, except that the scalars and are required to be positive or zero (that is, nonnegative).
Adjugate matrixIn linear algebra, the adjugate or classical adjoint of a square matrix A is the transpose of its cofactor matrix and is denoted by adj(A). It is also occasionally known as adjunct matrix, or "adjoint", though the latter term today normally refers to a different concept, the adjoint operator which for a matrix is the conjugate transpose. The product of a matrix with its adjugate gives a diagonal matrix (entries not on the main diagonal are zero) whose diagonal entries are the determinant of the original matrix: where I is the identity matrix of the same size as A.
Matrice de permutationUne matrice de permutation est une matrice carrée qui vérifie les propriétés suivantes : les coefficients sont 0 ou 1 ; il y a un et un seul 1 par ligne ; il y a un et un seul 1 par colonne. Ainsi : est une matrice de permutation. Les matrices de permutations carrées de taille n sont en bijection avec les permutations de l'ensemble {1,2,...n}. Si σ est une telle permutation, la matrice correspondante est de terme général Cette bijection est un morphisme de groupes : En utilisant cette identité avec deux permutations inverses l'une de l'autre, on obtient le fait qu'une matrice de permutation est inversible, et que son inverse est la matrice de la permutation inverse.
Règle de CramerLa règle de Cramer (ou méthode de Cramer) est un théorème en algèbre linéaire qui donne la solution d'un système de Cramer, c'est-à-dire un système d'équations linéaires avec autant d'équations que d'inconnues et dont le déterminant de la matrice de coefficients est non nul, sous forme de quotients de déterminants. En calcul, la méthode est moins efficace que la méthode de résolution de Gauss pour des grands systèmes (à partir de quatre équations) dont les coefficients dans le premier membre sont explicitement donnés.