In differential geometry, a tensor density or relative tensor is a generalization of the tensor field concept. A tensor density transforms as a tensor field when passing from one coordinate system to another (see tensor field), except that it is additionally multiplied or weighted by a power W of the Jacobian determinant of the coordinate transition function or its absolute value. A tensor density with a single index is called a vector density. A distinction is made among (authentic) tensor densities, pseudotensor densities, even tensor densities and odd tensor densities. Sometimes tensor densities with a negative weight W are called tensor capacity. A tensor density can also be regarded as a section of the tensor product of a tensor bundle with a density bundle.
In physics and related fields, it is often useful to work with the components of an algebraic object rather than the object itself. An example would be decomposing a vector into a sum of basis vectors weighted by some coefficients such as
where is a vector in 3-dimensional Euclidean space, are the usual standard basis vectors in Euclidean space. This is usually necessary for computational purposes, and can often be insightful when algebraic objects represent complex abstractions but their components have concrete interpretations. However, with this identification, one has to be careful to track changes of the underlying basis in which the quantity is expanded; it may in the course of a computation become expedient to change the basis while the vector remains fixed in physical space. More generally, if an algebraic object represents a geometric object, but is expressed in terms of a particular basis, then it is necessary to, when the basis is changed, also change the representation. Physicists will often call this representation of a geometric object a tensor if it transforms under a sequence of linear maps given a linear change of basis (although confusingly others call the underlying geometric object which hasn't changed under the coordinate transformation a "tensor", a convention this article strictly avoids).
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
En mathématiques, en physique et en ingénierie, un champ tensoriel est un concept très général de quantité géométrique variable. Il est utilisé en géométrie différentielle et dans la théorie des variétés, en géométrie algébrique, en relativité générale, dans l'analyse des contraintes et de la déformation dans les matériaux, et en de nombreuses applications dans les sciences physiques et dans le génie. C'est une généralisation de l'idée de champ vectoriel, lui-même conçu comme un « vecteur qui varie de point en point », à celle, plus riche, de « tenseur qui varie de point en point ».
En géométrie différentielle, la dérivée covariante est un outil destiné à définir la dérivée d'un champ de vecteurs sur une variété. Dans le cas où la dérivée covariante existe, il n'existe pas de différence entre la dérivée covariante et la connexion, à part la manière dont elles sont introduites. (Cela est faux quand la dérivée covariante n'existe pas en revanche ).
En géométrie riemannienne, la connexion de Levi-Civita est une connexion de Koszul naturellement définie sur toute variété riemannienne ou par extension sur toute variété pseudo-riemannienne. Ses propriétés caractérisent la variété riemannienne. Notamment, les géodésiques, courbes minimisant localement la distance riemannienne, sont exactement les courbes pour lesquelles le vecteur vitesse est parallèle. De plus, la courbure de la variété se définit à partir de cette connexion ; des conditions sur la courbure imposent des contraintes topologiques sur la variété.
Tensor trains are a versatile tool to compress and work with high-dimensional data and functions. In this work we introduce the streaming tensor train approximation (STTA), a new class of algorithms for approximating a given tensor ' in the tensor train fo ...
A rank-adaptive integrator for the approximate solution of high-order tensor differential equations by tree tensor networks is proposed and analyzed. In a recursion from the leaves to the root, the integrator updates bases and then evolves connection tenso ...
A geometric method of lattice reduction based on cycles of directional and hyperplanar shears is presented. The deviation from cubicity at each step of the reduction is evaluated by a parameter called 'basis rhombicity' which is the sum of the absolute val ...