En mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée.
Une matrice carrée A à coefficients dans un anneau quelconque est dite antisymétrique si sa transposée est égale à son opposée, c'est-à-dire si elle satisfait à l'équation :
A = –A
ou encore, en l'écrivant avec des coefficients sous la forme A = (ai,j), si :
pour tout i et j, aj,i = –ai,j
Les matrices suivantes sont antisymétriques :
Le cas où la matrice est à coefficients dans un anneau de caractéristique 2 est très particulier. Dans ce cas, –A = A donc A est antisymétrique si elle est symétrique. Dans tout ce qui suit, les coefficients de la matrice sont à coefficients dans un corps commutatif K de caractéristique différente de 2 (typiquement : le corps des réels).
Les matrices de rotations infinitésimales sont un exemple de matrices antisymétriques.
Une matrice est antisymétrique si et seulement si la forme bilinéaire qu'elle représente est antisymétrique, c'est-à-dire si (en notant les éléments de K comme des matrices colonnes) :
Une propriété équivalente (K étant supposé de caractéristique différente de 2) est que cette forme soit alternée, c'est-à-dire :
Toutes les entrées de la diagonale principale d'une matrice antisymétrique ont un zéro : en effet il faut que ai,i = –ai,i et dans K, le seul nombre égal à son opposé est 0 ; ainsi, la trace d'une matrice antisymétrique est nulle.
Le déterminant d'une matrice antisymétrique de taille n est nul si n est impair (car égal à son produit par (-1)n), et est le carré du pfaffien si n est pair.
La somme de tous ses coefficients est nulle.
L'espace des matrices symétriques et celui des matrices antisymétriques sont supplémentaires dans l'espace des matrices carrées. En effet, toute matrice carrée se décompose de façon unique de la façon suivante :
Lorsque le corps de coefficients est celui des réels, ces deux espaces sont même orthogonaux si on munit l'espace des matrices carrés du produit scalaire canonique dont une des expressions est justement :
Les matrices antisymétriques de type (n,n) forment un espace vectoriel de dimension n(n-1)/2.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
En mathématiques, et plus précisément en algèbre et en analyse vectorielle, l'algèbre extérieure d'un espace vectoriel E est une algèbre associative graduée, notée . La multiplication entre deux éléments a et b est appelée le produit extérieur et est notée . Le carré de tout élément de E est zéro (), on dit que la multiplication est alternée, ce qui entraîne que pour deux éléments de E : (la loi est « anti-commutative »). L'algèbre extérieure est aussi appelée algèbre de Grassmann nommée ainsi en l'honneur de Hermann Grassmann.
En mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée. Une matrice carrée A à coefficients dans un anneau quelconque est dite antisymétrique si sa transposée est égale à son opposée, c'est-à-dire si elle satisfait à l'équation : A = –A ou encore, en l'écrivant avec des coefficients sous la forme A = (ai,j), si : pour tout i et j, aj,i = –ai,j Les matrices suivantes sont antisymétriques : Le cas où la matrice est à coefficients dans un anneau de caractéristique 2 est très particulier.
Couvre la définition de la distribution gaussienne multivariée et de ses propriétés, y compris la fonction génératrice de moment et les combinaisons linéaires de variables.
We study three convolutions of polynomials in the context of free probability theory. We prove that these convolutions can be written as the expected characteristic polynomials of sums and products of
Based on the spectral divide-and-conquer algorithm by Nakatsukasa and Higham [SIAM J. Sci. Comput., 35(3):A1325-A1349, 2013], we propose a new algorithm for computing all the eigenvalues and eigenvect
In this thesis, we propose model order reduction techniques for high-dimensional PDEs that preserve structures of the original problems and develop a closure modeling framework leveraging the Mori-Zwa