Tenseur antisymétriqueEn mathématiques et physique théorique, un tenseur est antisymétrique pour les indices i et j si son signe est interchangé lorsqu'on inverse 2 indices : Un tenseur antisymétrique est un tenseur possédant 2 indices pour lesquels il est antisymétrique. Si un tenseur change de signe dès que 2 indices quelconques sont inversés, alors ce tenseur est dit complètement antisymétrique et est aussi nommé forme différentielle. Un tenseur A qui est antisymétrique pour les indices i et j possède la propriété que sa contraction avec un tenseur B, symétrique pour les indices i et j, est identiquement nulle.
Order isomorphismIn the mathematical field of order theory, an order isomorphism is a special kind of monotone function that constitutes a suitable notion of isomorphism for partially ordered sets (posets). Whenever two posets are order isomorphic, they can be considered to be "essentially the same" in the sense that either of the orders can be obtained from the other just by renaming of elements. Two strictly weaker notions that relate to order isomorphisms are order embeddings and Galois connections.
Tenseur électromagnétiqueLe tenseur électromagnétique, ou tenseur de Maxwell est le nom de l'objet mathématique décrivant la structure du champ électromagnétique en un point donné. Le tenseur électromagnétique est aussi connu comme : le tenseur d'intensité du champ électromagnétique ; le tenseur du champ magnétique ; le tenseur de Maxwell ; le tenseur de Faraday. Ce tenseur est défini dans le cadre du formalisme mathématique de la relativité restreinte, où aux trois dimensions spatiales est adjointe une dimension temporelle.
Décomposition en valeurs singulièresEn mathématiques, le procédé d'algèbre linéaire de décomposition en valeurs singulières (ou SVD, de l'anglais singular value decomposition) d'une matrice est un outil important de factorisation des matrices rectangulaires réelles ou complexes. Ses applications s'étendent du traitement du signal aux statistiques, en passant par la météorologie. Le théorème spectral énonce qu'une matrice normale peut être diagonalisée par une base orthonormée de vecteurs propres.
Réseau neuronal convolutifEn apprentissage automatique, un réseau de neurones convolutifs ou réseau de neurones à convolution (en anglais CNN ou ConvNet pour convolutional neural networks) est un type de réseau de neurones artificiels acycliques (feed-forward), dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Les neurones de cette région du cerveau sont arrangés de sorte qu'ils correspondent à des régions qui se chevauchent lors du pavage du champ visuel.
Topologie de l'ordreEn mathématiques, la topologie de l'ordre est une topologie naturelle définie sur tout ensemble ordonné (E, ≤), et qui dépend de la relation d'ordre ≤. Lorsque l'on définit la topologie usuelle de la droite numérique R, deux approches équivalentes sont possibles. On peut se fonder sur la relation d'ordre dans R, ou sur la valeur absolue de la distance entre deux nombres. Les égalités ci-dessous permettent de passer de l'une à l'autre : La valeur absolue se généralise en la notion de distance, qui induit le concept de topologie d'un espace métrique.
Tenseur énergie-impulsionLe tenseur énergie-impulsion est un outil mathématique utilisé notamment en relativité générale afin de représenter la répartition de masse et d'énergie dans l'espace-temps. La théorie de la relativité restreinte d'Einstein établissant l'équivalence entre masse et énergie, la théorie de la relativité générale indique que ces dernières courbent l'espace. L'effet visible de cette courbure est la déviation de la trajectoire des objets en mouvement, observé couramment comme l'effet de la gravitation.
Algorithme du gradientLalgorithme du gradient, aussi appelé algorithme de descente de gradient, désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction.
Gradientvignette|Chaque champ scalaire est représenté par un dégradé (blanc = valeur basse, noir = valeur haute). Chaque gradient est un champ vectoriel, représenté par des flèches bleues ; chacune pointe dans la direction où le champ scalaire croît le plus vite. vignette|La fonction à deux variables f(x, y) = xe−(x2 + y2) correspond à la température (bleu = valeur basse = froid, rouge = valeur haute = chaud). Le gradient de f est un champ vectoriel, représenté par les flèches bleues ; chacune pointe dans la direction où la température croît le plus vite.
Réseau de neurones artificielsUn réseau de neurones artificiels, ou réseau neuronal artificiel, est un système dont la conception est à l'origine schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est rapproché des méthodes statistiques. Les réseaux de neurones sont généralement optimisés par des méthodes d'apprentissage de type probabiliste, en particulier bayésien.