Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Matrice antisymétriqueEn mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée. Une matrice carrée A à coefficients dans un anneau quelconque est dite antisymétrique si sa transposée est égale à son opposée, c'est-à-dire si elle satisfait à l'équation : A = –A ou encore, en l'écrivant avec des coefficients sous la forme A = (ai,j), si : pour tout i et j, aj,i = –ai,j Les matrices suivantes sont antisymétriques : Le cas où la matrice est à coefficients dans un anneau de caractéristique 2 est très particulier.
Forme sesquilinéaireEn algèbre, une forme sesquilinéaire sur un espace vectoriel complexe E est une application de E × E dans C, linéaire selon l'une des variables et semi-linéaire par rapport à l'autre variable. Elle possède donc une propriété de « un-et-demi » linéarité (cf. préfixe sesqui, qui signifie "dans un rapport de un et demi"). C'est l'équivalent complexe des formes bilinéaires réelles. Les formes sesquilinéaires les plus étudiées sont les formes hermitiennes qui correspondent aux formes bilinéaires (réelles) symétriques.
Polynôme de TchebychevEn mathématiques, un polynôme de Tchebychev est un terme de l'une des deux suites de polynômes orthogonaux particulières reliées à la formule de Moivre. Les polynômes de Tchebychev sont nommés ainsi en l'honneur du mathématicien russe Pafnouti Lvovitch Tchebychev. Il existe deux suites de polynômes de Tchebychev, l'une nommée polynômes de Tchebychev de première espèce et notée T et l'autre nommée polynômes de Tchebychev de seconde espèce et notée U (dans les deux cas, l'entier naturel n correspond au degré).
Réduction de JordanLa réduction de Jordan est la traduction matricielle de la réduction des endomorphismes introduite par Camille Jordan. Cette réduction est tellement employée, en particulier en analyse pour la résolution d'équations différentielles ou pour déterminer le terme général de certaines suites récurrentes, qu'on la nomme parfois « jordanisation des endomorphismes ». Elle consiste à exprimer la matrice d'un endomorphisme dans une base, dite base de Jordan, où l'expression de l'endomorphisme est réduite.
Radioactivité βLa radioactivité β, radioactivité bêta ou émission bêta (symbole β) est, à l'origine, un type de désintégration radioactive dans laquelle une particule bêta (un électron ou un positon) est émise. On parle de désintégration bêta moins (β) ou bêta plus (β) selon qu'il s'agit de l'émission d'un électron (particule chargée négativement) ou d'un positon (particule chargée positivement). L'émission β est notamment ce qui permet la conversion d'un neutron en proton, par exemple dans les cas de transmutation comme du tritium (T) qui se transforme en hélium 3 (He) : ⟶ + e + .
Spinors in three dimensionsIn mathematics, the spinor concept as specialised to three dimensions can be treated by means of the traditional notions of dot product and cross product. This is part of the detailed algebraic discussion of the rotation group SO(3). The association of a spinor with a 2×2 complex Hermitian matrix was formulated by Élie Cartan. In detail, given a vector x = (x1, x2, x3) of real (or complex) numbers, one can associate the complex matrix In physics, this is often written as a dot product , where is the vector form of Pauli matrices.
Norme matricielleEn mathématiques, une norme matricielle est un cas particulier de norme vectorielle, sur un espace de matrices. Dans ce qui suit, K désigne le corps des réels ou des complexes. Certains auteurs définissent une norme matricielle comme étant simplement une norme sur un espace vectoriel M(K) de matrices à m lignes et n colonnes à coefficients dans K. Pour d'autres, une norme matricielle est seulement définie sur une algèbre M(K) de matrices carrées et est une norme d'algèbre, c'est-à-dire qu'elle est de plus sous-multiplicative.
Espace préhilbertienEn mathématiques, un espace préhilbertien est défini comme un espace vectoriel réel ou complexe muni d'un produit scalaire. Cette notion généralise celles d'espace euclidien ou hermitien dans le cas d'une dimension quelconque, tout en conservant certaines bonnes propriétés géométriques des espaces de dimension finie grâce aux propriétés du produit scalaire, mais en perdant un atout de taille : un espace préhilbertien de dimension infinie n'est pas nécessairement complet. On peut cependant le compléter, pour obtenir un espace de Hilbert.
Polynôme de Gegenbauerthumb|right|320px|Tracé du polynôme de Gegenbauer C(x) pour n=10 et m=1 sur le plan complexe entre -2-2i et 2+2i En mathématiques, les polynômes de Gegenbauer ou polynômes ultrasphériques sont une classe de polynômes orthogonaux. Ils sont nommés ainsi en l'honneur de Leopold Gegenbauer (1849-1903). Ils sont obtenus à partir des séries hypergéométriques dans les cas où la série est en fait finie : où est la factorielle décroissante.