Modular representation theoryModular representation theory is a branch of mathematics, and is the part of representation theory that studies linear representations of finite groups over a field K of positive characteristic p, necessarily a prime number. As well as having applications to group theory, modular representations arise naturally in other branches of mathematics, such as algebraic geometry, coding theory, combinatorics and number theory.
Groupe finivignette|Un exemple de groupe fini est le groupe des transformations laissant invariant un flocon de neige (par exemple la symétrie par rapport à l'axe horizontal). En mathématiques, un groupe fini est un groupe constitué d'un nombre fini d'éléments. Soit G un groupe. On note en général sa loi multiplicativement et on désigne alors son élément neutre par 1. Toutefois, si G est abélien, la loi est souvent notée additivement et son élément neutre est alors désigné par 0 ; ce n'est cependant pas une règle générale : par exemple, le groupe multiplicatif d'un corps commutatif est noté multiplicativement, bien qu'il soit abélien.
Matrice (mathématiques)thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Orthogonal transformationIn linear algebra, an orthogonal transformation is a linear transformation T : V → V on a real inner product space V, that preserves the inner product. That is, for each pair u, v of elements of V, we have Since the lengths of vectors and the angles between them are defined through the inner product, orthogonal transformations preserve lengths of vectors and angles between them. In particular, orthogonal transformations map orthonormal bases to orthonormal bases. Orthogonal transformations are injective: if then , hence , so the kernel of is trivial.
Structure constantsIn mathematics, the structure constants or structure coefficients of an algebra over a field are the coefficients of the basis expansion (into linear combination of basis vectors) of the products of basis vectors. Because the product operation in the algebra is bilinear, by linearity knowing the product of basis vectors allows to compute the product of any elements (just like a matrix allows to compute the action of the linear operator on any vector by providing the action of the operator on basis vectors).
Conditionnement (analyse numérique)En analyse numérique, une discipline des mathématiques, le conditionnement mesure la dépendance de la solution d'un problème numérique par rapport aux données du problème, ceci afin de contrôler la validité d'une solution calculée par rapport à ces données. En effet, les données d'un problème numérique dépendent en général de mesures expérimentales et sont donc entachées d'erreurs. Il s'agit le plus souvent d'une quantité numérique. De façon plus générale, on peut dire que le conditionnement associé à un problème est une mesure de la difficulté de calcul numérique du problème.
Sous-espace stableEn algèbre linéaire, un endomorphisme laisse stable un sous-espace vectoriel F quand les éléments de F ont pour image un élément de F. La recherche de sous-espaces stables est étroitement liée à la théorie de la réduction des endomorphismes. Soient E un espace vectoriel et u un endomorphisme de E. Un sous-espace vectoriel F de E est dit stable par u quand , c'est-à-dire : . Dans ce cas, u induit sur F un endomorphisme L'endomorphisme induit est la double restriction de l'endomorphisme initial avec à la fois un nouvel ensemble de départ et un nouvel ensemble d'arrivée.
Théorie des perturbationsLa théorie des perturbations est un domaine des mathématiques, qui consiste à étudier les contextes où il est possible de trouver une solution approchée à une équation en partant de la solution d'un problème plus simple. Plus précisément, on cherche une solution approchée à une équation (E) (dépendante d'un paramètre λ), sachant que la solution de l'équation (E) (correspondant à la valeur λ=0) est connue exactement. L'équation mathématique (E) peut être par exemple une équation algébrique ou une équation différentielle.
Sous-espace vectorielEn algèbre linéaire, un sous-espace vectoriel d'un espace vectoriel E, est une partie non vide F, de E, stable par combinaisons linéaires. Cette stabilité s'exprime par : la somme de deux vecteurs de F appartient à F ; le produit d'un vecteur de F par un scalaire appartient à F. Muni des lois induites, F est alors un espace vectoriel. L'intersection d'une famille non vide de sous-espaces de E est un sous-espace de E. La réunion d'une famille non vide de sous-espaces n'en est généralement pas un ; le sous-espace engendré par cette réunion est la somme de cette famille.
Théorie de la perturbation (mécanique quantique)En mécanique quantique, la théorie de la perturbation, ou théorie des perturbations, est un ensemble de schémas d'approximations liée à une perturbation mathématique utilisée pour décrire un système quantique complexe de façon simplifiée. L'idée est de partir d'un système simple et d'appliquer graduellement un hamiltonien « perturbant » qui représente un écart léger par rapport à l'équilibre du système (perturbation).