vignette|Illustration du produit de Hadamard: il s'applique à deux matrices de mêmes dimensions et la matrice en resultant a les mêmes dimensions également.
En mathématiques, le produit matriciel de Hadamard, nommé d'après le mathématicien français Jacques Hadamard et parfois désigné produit de Schur, est une opération binaire qui pour deux matrices de mêmes dimensions, associe une autre matrice, de même dimension, et où chaque coefficient est le produit terme à terme des deux matrices. En cela, il est à distinguer du produit matriciel usuel.
Le produit matriciel de Hadamard est associatif et distributif, et contrairement au produit matriciel classique, commutatif.
Formellement, pour deux matrices de mêmes dimensions
le produit de Hadamard est une matrice
dont les coefficients sont
Le produit de Hadamard est commutatif, associatif et distributif sur l'addition :
L'élément neutre pour le produit de Hadamard de deux matrices de taille m × n est une matrice m × n dont tous les éléments sont égaux à 1, contrairement à la matrice identité, qui est l'élément neutre du produit matriciel classique et dont les coefficients valent 1 sur la diagonale et 0 sinon. Ainsi, une matrice admet une inverse pour le produit de Hadamard si et seulement si tous ses éléments sont non nuls.
où M (respectivement M*) désigne la matrice transposée (resp. la matrice adjointe) de M. En particulier, le produit de Hadamard de deux matrices n × n symétriques (resp. hermitiennes) est une matrice symétrique (resp. hermitienne).
Si D est diagonale alors
En notant e le j-ème vecteur de la base canonique de C et, pour tout vecteur x, D la matrice diagonale dont les éléments diagonaux sont les coordonnées de x, on remarque que l'élément d'indice i, j du produit de Hadamard est égal au i-ème élément diagonal de ADB :On en déduit immédiatement :
la somme des coefficients de la i-ème ligne du produit de Hadamard est égale au i-ème élément diagonal de ABT :
la somme de tous les éléments du produit de Hadamard est la trace de ABT.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
In mathematics, the Frobenius inner product is a binary operation that takes two matrices and returns a scalar. It is often denoted . The operation is a component-wise inner product of two matrices as though they are vectors, and satisfies the axioms for an inner product. The two matrices must have the same dimension - same number of rows and columns, but are not restricted to be square matrices. Given two complex number-valued n×m matrices A and B, written explicitly as the Frobenius inner product is defined as, where the overline denotes the complex conjugate, and denotes Hermitian conjugate.
In mathematics, especially in linear algebra and matrix theory, the vectorization of a matrix is a linear transformation which converts the matrix into a vector. Specifically, the vectorization of a m × n matrix A, denoted vec(A), is the mn × 1 column vector obtained by stacking the columns of the matrix A on top of one another: Here, represents the element in the i-th row and j-th column of A, and the superscript denotes the transpose. Vectorization expresses, through coordinates, the isomorphism between these (i.
En mathématiques, le produit de Kronecker est une opération portant sur les matrices. Il s'agit d'un cas particulier du produit tensoriel. Il est ainsi dénommé en hommage au mathématicien allemand Leopold Kronecker. Soient A une matrice de taille m x n et B une matrice de taille p x q. Leur produit tensoriel est la matrice A ⊗ B de taille mp par nq, définie par blocs successifs de taille p x q, le bloc d'indice i,j valant a B En d'autres termes Ou encore, en détaillant les coefficients, Comme le montre l'exemple ci-dessous, le produit de Kronecker de deux matrices consiste à recopier plusieurs fois la deuxième matrice, en la multipliant par le coefficient correspondant à un terme de la première matrice.
A key challenge across many disciplines is to extract meaningful information from data which is often obscured by noise. These datasets are typically represented as large matrices. Given the current trend of ever-increasing data volumes, with datasets grow ...
EPFL2024
Multiple tensor-times-matrix (Multi-TTM) is a key computation in algorithms for computing and operating with the Tucker tensor decomposition, which is frequently used in multidimensional data analysis. We establish communication lower bounds that determine ...
Philadelphia2024
,
The accurate, robust and efficient transfer of the deformation gradient tensor between meshes of different resolution is crucial in cardiac electromechanics simulations. This paper presents a novel method that combines rescaled localized Radial Basis Funct ...