Orthogonal basisIn mathematics, particularly linear algebra, an orthogonal basis for an inner product space is a basis for whose vectors are mutually orthogonal. If the vectors of an orthogonal basis are normalized, the resulting basis is an orthonormal basis. Any orthogonal basis can be used to define a system of orthogonal coordinates Orthogonal (not necessarily orthonormal) bases are important due to their appearance from curvilinear orthogonal coordinates in Euclidean spaces, as well as in Riemannian and pseudo-Riemannian manifolds.
Système d'équations linéairesEn mathématiques et particulièrement en algèbre linéaire, un système d'équations linéaires est un système d'équations constitué d'équations linéaires qui portent sur les mêmes inconnues. Par exemple : Le problème est de trouver les valeurs des inconnues , et qui satisfassent les trois équations simultanément. La résolution des systèmes d'équations linéaires appartient aux problèmes les plus anciens dans les mathématiques et ceux-ci apparaissent dans beaucoup de domaines, comme en traitement numérique du signal, en optimisation linéaire, ou dans l'approximation de problèmes non linéaires en analyse numérique.
Additive Schwarz methodIn mathematics, the additive Schwarz method, named after Hermann Schwarz, solves a boundary value problem for a partial differential equation approximately by splitting it into boundary value problems on smaller domains and adding the results. Partial differential equations (PDEs) are used in all sciences to model phenomena. For the purpose of exposition, we give an example physical problem and the accompanying boundary value problem (BVP). Even if the reader is unfamiliar with the notation, the purpose is merely to show what a BVP looks like when written down.
Vecteur contravariant, covariant et covecteurUn vecteur contravariant est un vecteur, un vecteur covariant est une forme linéaire, encore appelé covecteur, ou encore vecteur dual. Et si on dispose d'un produit scalaire, on peut représenter une forme linéaire (= un vecteur covariant = un covecteur) par un vecteur à l'aide du théorème de représentation de Riesz (cette représentation dépend du choix du produit scalaire).
Matrice symplectiqueEn mathématique, une matrice symplectique est une matrice M de taille 2n par 2n (dont les entrées sont typiquement soit des réels soit des complexes) satisfaisant la condition où MT désigne la matrice transposée de M et J est la matrice par blocs antisymétrique définie par : (In étant la matrice identité n×n). On remarque que le déterminant de J vaut 1 et qu'on a l'identité J = −I2n. Toute matrice symplectique est inversible et son inverse est donnée par : De plus, le produit de deux matrices symplectiques est, à nouveau, une matrice symplectique.
Déduction naturelleEn logique mathématique, la déduction naturelle est un système formel où les règles de déduction des démonstrations sont proches des façons naturelles de raisonner. C'est une étape importante de l'histoire de la théorie de la démonstration pour plusieurs raisons : contrairement aux systèmes à la Hilbert fondés sur des listes d'axiomes logiques plus ou moins ad hoc, la déduction naturelle repose sur un principe systématique de symétrie : pour chaque connecteur, on donne une paire de règles duales (introduction/élimination) ; elle a conduit Gentzen à inventer un autre formalisme très important en théorie de la démonstration, encore plus « symétrique » : le calcul des séquents ; elle a permis dans les années 1960 d'identifier la première instance de l'isomorphisme de Curry-Howard.
Sous-groupe à un paramètreUn sous-groupe à un paramètre d'un groupe de Lie réel G est un morphisme de groupes de Lie c : R → G. Plus explicitement, c est une application différentiable vérifiant : En dérivant cette relation par rapport à la variable s et en évaluant en s = 0, il vient : où Lc(t) désigne la multiplication à gauche par c(t). Un sous-groupe à un paramètre s'obtient comme orbite de l'élément neutre par un champ de vecteurs invariant à gauche de G. Un tel champ X est déterminé par sa valeur X(e) en l'élément neutre e.
Théorème KAMLe théorème KAM est un théorème de mécanique hamiltonienne qui affirme la persistance de tores invariants sur lesquels le mouvement est quasi périodique, pour les perturbations de certains systèmes hamiltoniens. Il doit son nom aux initiales de trois mathématiciens qui ont donné naissance à la théorie KAM : Kolmogorov, Arnold et Moser. Kolmogorov annonça un premier résultat en 1954, mais il ne donna que les grandes lignes de sa démonstration. Le théorème de Kolmogorov fut démontré rigoureusement en 1963 par Arnold.
Stone's theorem on one-parameter unitary groupsIn mathematics, Stone's theorem on one-parameter unitary groups is a basic theorem of functional analysis that establishes a one-to-one correspondence between self-adjoint operators on a Hilbert space and one-parameter families of unitary operators that are strongly continuous, i.e., and are homomorphisms, i.e., Such one-parameter families are ordinarily referred to as strongly continuous one-parameter unitary groups.