Décomposition en valeurs singulièresEn mathématiques, le procédé d'algèbre linéaire de décomposition en valeurs singulières (ou SVD, de l'anglais singular value decomposition) d'une matrice est un outil important de factorisation des matrices rectangulaires réelles ou complexes. Ses applications s'étendent du traitement du signal aux statistiques, en passant par la météorologie. Le théorème spectral énonce qu'une matrice normale peut être diagonalisée par une base orthonormée de vecteurs propres.
Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Théorème spectralEn mathématiques, et plus particulièrement en algèbre linéaire et en analyse fonctionnelle, on désigne par théorème spectral plusieurs énoncés affirmant, pour certains endomorphismes, l'existence de décompositions privilégiées, utilisant en particulier l'existence de sous-espaces propres. vignette|Une illustration du théorème spectral dans le cas fini : un ellipsoïde possède (en général) trois axes de symétrie orthogonaux (notés ici x, y et z).
Matrice diagonalisableEn mathématiques, une matrice diagonalisable est une matrice carrée semblable à une matrice diagonale. Cette propriété est équivalente à l'existence d'une base de vecteurs propres, ce qui permet de définir de manière analogue un endomorphisme diagonalisable d'un espace vectoriel. Le fait qu'une matrice soit diagonalisable dépend du corps dans lequel sont cherchées les valeurs propres, ce que confirme la caractérisation par le fait que le polynôme minimal soit scindé à racines simples.
Matrix ringIn abstract algebra, a matrix ring is a set of matrices with entries in a ring R that form a ring under matrix addition and matrix multiplication . The set of all n × n matrices with entries in R is a matrix ring denoted Mn(R) (alternative notations: Matn(R) and Rn×n). Some sets of infinite matrices form infinite matrix rings. Any subring of a matrix ring is a matrix ring. Over a rng, one can form matrix rngs. When R is a commutative ring, the matrix ring Mn(R) is an associative algebra over R, and may be called a matrix algebra.
Droite (mathématiques)En géométrie, le mot droite désigne un objet formé de points alignés. Une droite est illimitée des deux côtés, et sans épaisseur (dans la pratique, elle est représentée, sur une feuille, par une ligne droite ayant bien entendu des limites — celles de la feuille — et une épaisseur — celle du crayon). Pour les Anciens, la droite était un concept « allant de soi », si « évident » que l'on négligeait de préciser de quoi l'on parlait. L'un des premiers à formaliser la notion de droite fut le Grec Euclide dans ses Éléments.
Idempotent matrixIn linear algebra, an idempotent matrix is a matrix which, when multiplied by itself, yields itself. That is, the matrix is idempotent if and only if . For this product to be defined, must necessarily be a square matrix. Viewed this way, idempotent matrices are idempotent elements of matrix rings. Examples of idempotent matrices are: Examples of idempotent matrices are: If a matrix is idempotent, then implying so or implying so or Thus, a necessary condition for a matrix to be idempotent is that either it is diagonal or its trace equals 1.
Théorème de représentation de Riesz (Fréchet-Riesz)En mathématiques, plus précisément en analyse fonctionnelle, le théorème de représentation de Riesz, en l'honneur du mathématicien Frigyes Riesz, est un théorème qui représente les éléments du dual d'un espace de Hilbert comme produit scalaire par un vecteur de l'espace. Ce théorème est aussi parfois appelé théorème de Fréchet-Riesz (à ne pas confondre avec le théorème de Riesz-Fréchet-Kolmogorov). Il s'apparente singulièrement au théorème de Lax-Milgram qui englobe l'énoncé ci-dessous.
Matrice nulleEn mathématiques, et en particulier en algèbre linéaire, une matrice nulle est une matrice dont tous les coefficients sont nuls. Des exemples de matrices nulles sont : L'ensemble des matrices de dimension à coefficients dans un anneau forme un anneau . La matrice nulle , dans est la matrice ayant tous les coefficients égaux à , où est l'élément neutre additif de . La matrice nulle est l'élément neutre additif de .
Sous-espace stableEn algèbre linéaire, un endomorphisme laisse stable un sous-espace vectoriel F quand les éléments de F ont pour image un élément de F. La recherche de sous-espaces stables est étroitement liée à la théorie de la réduction des endomorphismes. Soient E un espace vectoriel et u un endomorphisme de E. Un sous-espace vectoriel F de E est dit stable par u quand , c'est-à-dire : . Dans ce cas, u induit sur F un endomorphisme L'endomorphisme induit est la double restriction de l'endomorphisme initial avec à la fois un nouvel ensemble de départ et un nouvel ensemble d'arrivée.