Nombre de BettiEn mathématiques, et plus précisément en topologie algébrique, les nombres de Betti sont des invariants topologiques, c'est-à-dire qu'ils aident à distinguer différents espaces topologiques. Ils forment une suite dont chaque terme est un entier naturel ou +∞. Pour les espaces « raisonnables » comme les variétés compactes et les complexes simpliciaux ou CW-complexes finis, ils sont tous finis, et nuls à partir d'un certain rang (au-delà de la dimension de l'espace). Henri Poincaré les a nommés ainsi en l'honneur d'Enrico Betti.
Rang (algèbre linéaire)En algèbre linéaire : le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Par exemple, pour une famille de vecteurs linéairement indépendants, son rang est le nombre de vecteurs ; le rang d'une application linéaire de dans est la dimension de son , qui est un sous-espace vectoriel de . Le théorème du rang relie la dimension de , la dimension du noyau de et le rang de ; le rang d'une matrice est le rang de l'application linéaire qu'elle représente, ou encore le rang de la famille de ses vecteurs colonnes ; le rang d'un système d'équations linéaires est le nombre d'équations que compte tout système échelonné équivalent.
Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Classification des algèbres de CliffordEn mathématiques, en particulier dans la théorie des formes quadratiques non dégénérées sur les espaces vectoriels réels et complexes, les algèbres de Clifford de dimension finie ont été complètement classées. Dans chaque cas, l'algèbre de Clifford est isomorphe à une algèbre de matrices sur R, C ou H (les quaternions), ou à une somme directe de deux de ces algèbres, mais pas de manière canonique. Notation et conventions. Dans cet article, nous utiliserons la convention de signe (+) pour la multiplication de Clifford, c’est-à-dire où Q est la forme quadratique sur l'espace vectoriel V.
Matrice diagonalisableEn mathématiques, une matrice diagonalisable est une matrice carrée semblable à une matrice diagonale. Cette propriété est équivalente à l'existence d'une base de vecteurs propres, ce qui permet de définir de manière analogue un endomorphisme diagonalisable d'un espace vectoriel. Le fait qu'une matrice soit diagonalisable dépend du corps dans lequel sont cherchées les valeurs propres, ce que confirme la caractérisation par le fait que le polynôme minimal soit scindé à racines simples.
Porte quantiqueEn informatique quantique, et plus précisément dans le modèle de de calcul, une porte quantique (ou porte logique quantique) est un circuit quantique élémentaire opérant sur un petit nombre de qubits. Les portes quantiques sont les briques de base des circuits quantiques, comme le sont les portes logiques classiques pour des circuits numériques classiques. Contrairement à de nombreuses portes logiques classiques, les portes logiques quantique sont « réversibles ».
Matrice inversibleEn mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée A pour laquelle il existe une matrice B de même taille n avec laquelle les produits AB et BA sont égaux à la matrice identité. Dans ce cas la matrice B est unique, appelée matrice inverse de A et notée B = A. Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé.
Matrix decompositionIn the mathematical discipline of linear algebra, a matrix decomposition or matrix factorization is a factorization of a matrix into a product of matrices. There are many different matrix decompositions; each finds use among a particular class of problems. In numerical analysis, different decompositions are used to implement efficient matrix algorithms. For instance, when solving a system of linear equations , the matrix A can be decomposed via the LU decomposition.
Matrix ringIn abstract algebra, a matrix ring is a set of matrices with entries in a ring R that form a ring under matrix addition and matrix multiplication . The set of all n × n matrices with entries in R is a matrix ring denoted Mn(R) (alternative notations: Matn(R) and Rn×n). Some sets of infinite matrices form infinite matrix rings. Any subring of a matrix ring is a matrix ring. Over a rng, one can form matrix rngs. When R is a commutative ring, the matrix ring Mn(R) is an associative algebra over R, and may be called a matrix algebra.
Projective unitary groupIn mathematics, the projective unitary group PU(n) is the quotient of the unitary group U(n) by the right multiplication of its center, U(1), embedded as scalars. Abstractly, it is the holomorphic isometry group of complex projective space, just as the projective orthogonal group is the isometry group of real projective space. In terms of matrices, elements of U(n) are complex n×n unitary matrices, and elements of the center are diagonal matrices equal to eiθ multiplied by the identity matrix.