En mathématiques, en physique et en ingénierie, un champ tensoriel est un concept très général de quantité géométrique variable. Il est utilisé en géométrie différentielle et dans la théorie des variétés, en géométrie algébrique, en relativité générale, dans l'analyse des contraintes et de la déformation dans les matériaux, et en de nombreuses applications dans les sciences physiques et dans le génie. C'est une généralisation de l'idée de champ vectoriel, lui-même conçu comme un « vecteur qui varie de point en point », à celle, plus riche, de « tenseur qui varie de point en point ».
Il devrait être noté que plusieurs structures mathématiques appelées familièrement « tenseurs » sont en fait des champs tensoriels, qui associent un tenseur à chaque point du domaine. Voir l'article tenseur pour une introduction élémentaire aux tenseurs. On retrouvera dans les champs de tenseurs les notions de degré de covariance ou de contravariance qui indiquent la façon dont le tenseur se comporte lors d'un changement de base.
L'intuition géométrique pour un champ vectoriel est d'une « flèche attachée à chaque point de la région », à longueur et direction variables. L'image mentale d'un champ vectoriel sur un espace courbe peut s'appuyer sur l'exemple d'une carte météorologique montrant la vélocité horizontale du vent, à chaque point de la surface de la Terre.
La notion générale du champ tensoriel est définie sur les variétés, espaces courbes de dimension quelconque généralisant les surfaces. Il s'agit à la fois un objet au contenu sophistiqué - il permet par exemple de donner corps à l'idée d'une ellipse ou d'un produit scalaire non pas fixes mais variables et attachés au point courant - et d'une quantité qui est définie de façon intrinsèque, indépendamment notamment du paramétrage ou des choix de coordonnées utilisés pour décrire le domaine de définition. Dans l'exemple du globe terrestre, le champ peut s'exprimer en recourant à la latitude et la longitude, ou à différents types de projection cartographique, mais doit cependant pouvoir être défini indépendamment de ces outils de calcul.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
This course is the basic introduction to modern cosmology. It introduces students to the main concepts and formalism of cosmology, the observational status of Hot Big Bang theory
and discusses major
En géométrie différentielle, la dérivée covariante est un outil destiné à définir la dérivée d'un champ de vecteurs sur une variété. Dans le cas où la dérivée covariante existe, il n'existe pas de différence entre la dérivée covariante et la connexion, à part la manière dont elles sont introduites. (Cela est faux quand la dérivée covariante n'existe pas en revanche ).
En mathématiques, les variétés différentielles ou variétés différentiables sont les objets de base de la topologie différentielle et de la géométrie différentielle. Il s'agit de variétés, « espaces courbes » localement modelés sur l'espace euclidien de dimension n, sur lesquelles il est possible de généraliser une bonne part des opérations du calcul différentiel et intégral. Une variété différentielle se définit donc d'abord par la donnée d'une variété topologique, espace topologique localement homéomorphe à l'espace R.
Les tenseurs sont des objets mathématiques issus de l'algèbre multilinéaire permettant de généraliser les scalaires et les vecteurs. On les rencontre notamment en analyse vectorielle et en géométrie différentielle fréquemment utilisés au sein de champs de tenseurs. Ils sont aussi utilisés en mécanique des milieux continus. Le présent article ne se consacre qu'aux tenseurs dans des espaces vectoriels de dimension finie, bien que des généralisations en dimension infinie et même pour des modules existent.
Learn to optimize on smooth, nonlinear spaces: Join us to build your foundations (starting at "what is a manifold?") and confidently implement your first algorithm (Riemannian gradient descent).
A rank-adaptive integrator for the approximate solution of high-order tensor differential equations by tree tensor networks is proposed and analyzed. In a recursion from the leaves to the root, the integrator updates bases and then evolves connection tenso ...
Tensor trains are a versatile tool to compress and work with high-dimensional data and functions. In this work we introduce the streaming tensor train approximation (STTA), a new class of algorithms for approximating a given tensor ' in the tensor train fo ...
We consider a statistical model for finite-rank symmetric tensor factorization and prove a single-letter variational expression for its asymptotic mutual information when the tensor is of even order. The proof applies the adaptive interpolation method orig ...