Connexion (mathématiques)En géométrie différentielle, la connexion est un outil pour réaliser le transport parallèle. Il existe plusieurs présentations qui dépendent de l'utilisation faite. Cette notion a été développée au début des années 1920 par Élie Cartan et Hermann Weyl (avec comme cas particulier celle de connexion affine), puis reformulée en 1951 par Charles Ehresmann et Jean-Louis Koszul. Connexion de Koszul La connexion de Koszul est un opérateur sur des espaces de sections.
Contrat en droit suisseUn contrat en droit suisse est défini par l'article 1, alinéa premier du Code des obligations : « Le contrat est parfait lorsque les parties ont, réciproquement et d'une manière concordante, manifesté leur volonté ». Comme dans de nombreux pays de tradition juridique romano-civiliste, le contrat en droit suisse est l'échange d'au moins deux manifestations de volonté, appelées l'offre et l'acceptation, par lesquelles les parties décident de produire un effet juridique. Le contrat est donc un acte juridique bilatéral ou multilatéral.
Factorisation de CholeskyLa factorisation de Cholesky, nommée d'après André-Louis Cholesky, consiste, pour une matrice symétrique définie positive , à déterminer une matrice triangulaire inférieure telle que : . La matrice est en quelque sorte une « racine carrée » de . Cette décomposition permet notamment de calculer la matrice inverse , de calculer le déterminant de A (égal au carré du produit des éléments diagonaux de ) ou encore de simuler une loi multinormale. Elle est aussi utilisée en chimie quantique pour accélérer les calculs (voir Décomposition de Cholesky (chimie quantique)).
Connexion de KoszulEn géométrie différentielle, une connexion (de Koszul) est un opérateur sur les sections d'un fibré vectoriel. Cette notion a été introduite par Jean-Louis Koszul en 1950 et formalise le transport parallèle de vecteurs le long d'une courbe en termes d'équation différentielle ordinaire. Les connexions sont des objets localement définis auxquels sont associées les notions de courbure et de torsion. L'un des exemples les plus simples de connexions de Koszul sans torsion est la connexion de Levi-Civita naturellement définie sur le fibré tangent de toute variété riemannienne.
Matrice à coefficients positifsUne matrice de type est à coefficients positifs lorsque tous ses éléments sont réels positifs ; on écrira alors . Elle est dite strictement positive lorsque tous ses éléments sont strictement positifs ; on écrira alors . et étant deux matrices réelles on définit une relation d'ordre partiel sur ces matrices en posant . Il est immédiat que cette relation d'ordre est compatible avec l'addition. De même elle est compatible avec la multiplication (à gauche ou à droite) par une matrice positive.
FactorisationEn mathématiques, la factorisation consiste à écrire une expression algébrique (notamment une somme), un nombre, une matrice sous la forme d'un produit. Cette transformation peut se faire suivant différentes techniques détaillées ci-dessous. Les enjeux de la factorisation sont très divers : à un niveau élémentaire, le but peut être de ramener la résolution d'une équation à celle d'une équation produit-nul, ou la simplification d'une écriture fractionnaire ; à un niveau intermédiaire, la difficulté algorithmique présumée de la factorisation des nombres entiers en produit de facteurs premiers est à la base de la fiabilité du cryptosystème RSA.
Square matrixIn mathematics, a square matrix is a matrix with the same number of rows and columns. An n-by-n matrix is known as a square matrix of order . Any two square matrices of the same order can be added and multiplied. Square matrices are often used to represent simple linear transformations, such as shearing or rotation. For example, if is a square matrix representing a rotation (rotation matrix) and is a column vector describing the position of a point in space, the product yields another column vector describing the position of that point after that rotation.
Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Connexion de Levi-CivitaEn géométrie riemannienne, la connexion de Levi-Civita est une connexion de Koszul naturellement définie sur toute variété riemannienne ou par extension sur toute variété pseudo-riemannienne. Ses propriétés caractérisent la variété riemannienne. Notamment, les géodésiques, courbes minimisant localement la distance riemannienne, sont exactement les courbes pour lesquelles le vecteur vitesse est parallèle. De plus, la courbure de la variété se définit à partir de cette connexion ; des conditions sur la courbure imposent des contraintes topologiques sur la variété.
Entrée-sortieDans un système à base de processeur, de microprocesseur, de microcontrôleur ou d'automate, on appelle entrée-sortie toute interface permettant d’échanger des données entre le processeur et les périphériques qui lui sont associés. De la sorte, le système peut réagir à des modifications de son environnement, voire le contrôler. Elles sont parfois désignées par l'acronyme I/O, issu de l'anglais Input/Output ou encore E/S pour entrée/sortie. Dans un système d'exploitation : les entrées sont les données envoyées par un périphérique (disque, réseau, clavier, capteur.