En mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée.
Une matrice carrée A à coefficients dans un anneau quelconque est dite antisymétrique si sa transposée est égale à son opposée, c'est-à-dire si elle satisfait à l'équation :
A = –A
ou encore, en l'écrivant avec des coefficients sous la forme A = (ai,j), si :
pour tout i et j, aj,i = –ai,j
Les matrices suivantes sont antisymétriques :
Le cas où la matrice est à coefficients dans un anneau de caractéristique 2 est très particulier. Dans ce cas, –A = A donc A est antisymétrique si elle est symétrique. Dans tout ce qui suit, les coefficients de la matrice sont à coefficients dans un corps commutatif K de caractéristique différente de 2 (typiquement : le corps des réels).
Les matrices de rotations infinitésimales sont un exemple de matrices antisymétriques.
Une matrice est antisymétrique si et seulement si la forme bilinéaire qu'elle représente est antisymétrique, c'est-à-dire si (en notant les éléments de K comme des matrices colonnes) :
Une propriété équivalente (K étant supposé de caractéristique différente de 2) est que cette forme soit alternée, c'est-à-dire :
Toutes les entrées de la diagonale principale d'une matrice antisymétrique ont un zéro : en effet il faut que ai,i = –ai,i et dans K, le seul nombre égal à son opposé est 0 ; ainsi, la trace d'une matrice antisymétrique est nulle.
Le déterminant d'une matrice antisymétrique de taille n est nul si n est impair (car égal à son produit par (-1)n), et est le carré du pfaffien si n est pair.
La somme de tous ses coefficients est nulle.
L'espace des matrices symétriques et celui des matrices antisymétriques sont supplémentaires dans l'espace des matrices carrées. En effet, toute matrice carrée se décompose de façon unique de la façon suivante :
Lorsque le corps de coefficients est celui des réels, ces deux espaces sont même orthogonaux si on munit l'espace des matrices carrés du produit scalaire canonique dont une des expressions est justement :
Les matrices antisymétriques de type (n,n) forment un espace vectoriel de dimension n(n-1)/2.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
En mathématiques, et plus précisément en algèbre et en analyse vectorielle, l'algèbre extérieure d'un espace vectoriel E est une algèbre associative graduée, notée . La multiplication entre deux éléments a et b est appelée le produit extérieur et est notée . Le carré de tout élément de E est zéro (), on dit que la multiplication est alternée, ce qui entraîne que pour deux éléments de E : (la loi est « anti-commutative »). L'algèbre extérieure est aussi appelée algèbre de Grassmann nommée ainsi en l'honneur de Hermann Grassmann.
En mathématiques, une matrice diagonalisable est une matrice carrée semblable à une matrice diagonale. Cette propriété est équivalente à l'existence d'une base de vecteurs propres, ce qui permet de définir de manière analogue un endomorphisme diagonalisable d'un espace vectoriel. Le fait qu'une matrice soit diagonalisable dépend du corps dans lequel sont cherchées les valeurs propres, ce que confirme la caractérisation par le fait que le polynôme minimal soit scindé à racines simples.
Couvre la définition de la distribution gaussienne multivariée et de ses propriétés, y compris la fonction génératrice de moment et les combinaisons linéaires de variables.
A key challenge across many disciplines is to extract meaningful information from data which is often obscured by noise. These datasets are typically represented as large matrices. Given the current trend of ever-increasing data volumes, with datasets grow ...
Given a family of nearly commuting symmetric matrices, we consider the task of computing an orthogonal matrix that nearly diagonalizes every matrix in the family. In this paper, we propose and analyze randomized joint diagonalization (RJD) for performing t ...
Functional connectomes (FCs) containing pairwise estimations of functional couplings between pairs of brain regions are commonly represented by correlation matrices. As symmetric positive definite matrices, FCs can be transformed via tangent space projecti ...