Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Base orthonorméeEn géométrie vectorielle, une base orthonormale ou base orthonormée (BON) d'un espace euclidien ou hermitien est une base de cet espace vectoriel constituée de vecteurs de norme 1 et orthogonaux deux à deux. Dans une telle base, les coordonnées d'un vecteur quelconque de l'espace sont égales aux produits scalaires respectifs de ce vecteur par chacun des vecteurs de base, et le produit scalaire de deux vecteurs quelconques a une expression canonique en fonction de leurs coordonnées.
Rotation vectorielleSoit E un espace vectoriel euclidien. Une rotation vectorielle de E est un élément du groupe spécial orthogonal SO(E). Si on choisit une base orthonormée de E, sa matrice dans cette base est orthogonale directe. Matrice de rotation Dans le plan vectoriel euclidien orienté, une rotation vectorielle est simplement définie par son angle . Sa matrice dans une base orthonormée directe est : Autrement dit, un vecteur de composantes a pour image le vecteur de composantes que l'on peut calculer avec l'égalité matricielle : c'est-à-dire que l'on a : et Si par exemple et , désigne un des angles du triangle rectangle de côtés 3, 4 et 5.
Espace de Minkowskithumb|Représentation schématique de l'espace de Minkowski, qui montre seulement deux des trois dimensions spatiales. En géométrie et en relativité restreinte, l'espace de Minkowski du nom de son inventeur Hermann Minkowski, appelé aussi l'espace-temps de Minkowski ou parfois l'espace-temps de Poincaré-Minkowski, est un espace mathématique, et plus précisément un espace affine pseudo-euclidien à quatre dimensions, modélisant l'espace-temps de la relativité restreinte : les propriétés géométriques de cet espace correspondent à des propriétés physiques présentes dans cette théorie.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Vecteur contravariant, covariant et covecteurUn vecteur contravariant est un vecteur, un vecteur covariant est une forme linéaire, encore appelé covecteur, ou encore vecteur dual. Et si on dispose d'un produit scalaire, on peut représenter une forme linéaire (= un vecteur covariant = un covecteur) par un vecteur à l'aide du théorème de représentation de Riesz (cette représentation dépend du choix du produit scalaire).
Série de Fouriervignette|250px|Les quatre premières sommes partielles de la série de Fourier pour un signal carré. vignette|250px|Le premier graphe donne l'allure du graphe d'une fonction périodique ; l'histogramme donne les valeurs des modules des coefficients de Fourier correspondant aux différentes fréquences. En analyse mathématique, les séries de Fourier sont un outil fondamental dans l'étude des fonctions périodiques. C'est à partir de ce concept que s'est développée la branche des mathématiques connue sous le nom d'analyse harmonique.
OrthogonalitéEn géométrie classique, l'orthogonalité est une propriété liée à l'existence d'un angle droit (orthos = droit, gônia = angle). Dans l'espace, deux droites sont orthogonales si elles sont chacune parallèles à des droites se coupant en angle droit ; deux perpendiculaires étant deux droites orthogonales et sécantes. Une droite est orthogonale à un plan si elle est orthogonale aux droites du plan. On parle de vecteurs orthogonaux pour des vecteurs directeurs de droites orthogonales et de segments orthogonaux pour des segments portés par des droites orthogonales.
Symbole delta de KroneckerEn mathématiques, le symbole delta de Kronecker, également appelé symbole de Kronecker ou delta de Kronecker, est une fonction de deux variables qui est égale à 1 si celles-ci sont égales, et 0 sinon. Il est symbolisé par la lettre δ (delta minuscule) de l'alphabet grec. ou, en notation tensorielle : où δ et δ sont des vecteurs unitaires tels que seule la i-ème (respectivement la j-ème) coordonnée soit non nulle (et vaille donc 1).
Matrice inversibleEn mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée A pour laquelle il existe une matrice B de même taille n avec laquelle les produits AB et BA sont égaux à la matrice identité. Dans ce cas la matrice B est unique, appelée matrice inverse de A et notée B = A. Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé.