Analyse en composantes principalesL'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux.
Locality sensitive hashingLocality sensitive hashing (LSH) est une méthode de recherche approximative dans des espaces de grande dimension. C'est une solution au problème de la malédiction de la dimension qui apparait lors d'une recherche des plus proches voisins en grande dimension. L'idée principale est d'utiliser une famille de fonction de hachage choisies telles que des points proches dans l'espace d'origine aient une forte probabilité d'avoir la même valeur de hachage. La méthode a de nombreuses applications en vision artificielle, traitement automatique de la langue, bio-informatique.
Tenseur antisymétriqueEn mathématiques et physique théorique, un tenseur est antisymétrique pour les indices i et j si son signe est interchangé lorsqu'on inverse 2 indices : Un tenseur antisymétrique est un tenseur possédant 2 indices pour lesquels il est antisymétrique. Si un tenseur change de signe dès que 2 indices quelconques sont inversés, alors ce tenseur est dit complètement antisymétrique et est aussi nommé forme différentielle. Un tenseur A qui est antisymétrique pour les indices i et j possède la propriété que sa contraction avec un tenseur B, symétrique pour les indices i et j, est identiquement nulle.
Tenseur symétriqueUn tenseur d'ordre 2 est dit symétrique si la forme bilinéaire associée est symétrique. Un tenseur d'ordre 2 étant défini par rapport à un certain espace vectoriel, on peut y choisir des vecteurs de base et le tenseur est alors représenté par une matrice de composantes . Une définition équivalente à la précédente consiste à dire que la matrice est symétrique, c'est-à-dire que : pour tout couple d'indices i et j, car cette propriété reste inchangée si l'on change de base.
Tenseur électromagnétiqueLe tenseur électromagnétique, ou tenseur de Maxwell est le nom de l'objet mathématique décrivant la structure du champ électromagnétique en un point donné. Le tenseur électromagnétique est aussi connu comme : le tenseur d'intensité du champ électromagnétique ; le tenseur du champ magnétique ; le tenseur de Maxwell ; le tenseur de Faraday. Ce tenseur est défini dans le cadre du formalisme mathématique de la relativité restreinte, où aux trois dimensions spatiales est adjointe une dimension temporelle.
Tensor rank decompositionIn multilinear algebra, the tensor rank decomposition or the decomposition of a tensor is the decomposition of a tensor in terms of a sum of minimum tensors. This is an open problem. Canonical polyadic decomposition (CPD) is a variant of the rank decomposition which computes the best fitting terms for a user specified . The CP decomposition has found some applications in linguistics and chemometrics. The CP rank was introduced by Frank Lauren Hitchcock in 1927 and later rediscovered several times, notably in psychometrics.
Symbole de Levi-CivitaEn mathématiques, le symbole de Levi-Civita, noté ε (lettre grecque epsilon), est un objet antisymétrique d'ordre 3 qui peut être exprimé à partir du symbole de Kronecker : Ainsi, ne peut prendre que trois valeurs : –1, 0 ou 1. En dimension 3, on peut figurer le symbole de Levi-Civita comme suit : On remarque que si , et , alors représente une permutation et le symbole de Levi-Civita correspondant est sa signature.
Méthode d'EulerEn mathématiques, la méthode d'Euler, nommée ainsi en l'honneur du mathématicien Leonhard Euler (1707 — 1783), est une procédure numérique pour résoudre par approximation des équations différentielles du premier ordre avec une condition initiale. C'est la plus simple des méthodes de résolution numérique des équations différentielles. thumb|Illustration de la méthode d'Euler explicite : l'avancée se fait par approximation sur la tangente au point initial.
Rang (algèbre linéaire)En algèbre linéaire : le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Par exemple, pour une famille de vecteurs linéairement indépendants, son rang est le nombre de vecteurs ; le rang d'une application linéaire de dans est la dimension de son , qui est un sous-espace vectoriel de . Le théorème du rang relie la dimension de , la dimension du noyau de et le rang de ; le rang d'une matrice est le rang de l'application linéaire qu'elle représente, ou encore le rang de la famille de ses vecteurs colonnes ; le rang d'un système d'équations linéaires est le nombre d'équations que compte tout système échelonné équivalent.
Numerical methods for ordinary differential equationsNumerical methods for ordinary differential equations are methods used to find numerical approximations to the solutions of ordinary differential equations (ODEs). Their use is also known as "numerical integration", although this term can also refer to the computation of integrals. Many differential equations cannot be solved exactly. For practical purposes, however – such as in engineering – a numeric approximation to the solution is often sufficient. The algorithms studied here can be used to compute such an approximation.