Résumé
En algèbre linéaire et plus précisément en théorie des matrices, le complément de Schur est défini comme suit. Soit une matrice de dimension (p+q)×(p+q), où les blocs A, B, C, D sont des matrices de dimensions respectives p×p, p×q, q×p et q×q, avec D inversible. Alors, le complément de Schur du bloc D de la matrice M est constitué par la matrice de dimension p×p suivante : Lorsque B est la transposée de C, la matrice M est symétrique définie positive si et seulement si D et son complément de Schur dans M le sont. Le complément de Schur apparaît en particulier comme le résultat d'une élimination de Gauss « partielle » en multipliant la matrice M à droite avec la matrice « triangulaire inférieure par blocs » suivante Ici, Ip désigne la matrice identité de dimension p×p. Après multiplication par la matrice LT, le complément de Schur apparaît dans le bloc p×p supérieur. La matrice produit est L'inverse de M peut ainsi être exprimée en termes de D et de l'inverse du complément de Schur ou encore plus simplement, De même, si A est inversible, son complément de Schur est par définition D – CAB, et si ce dernier est également inversible on a : Le complément de Schur apparaît naturellement lors de la résolution d'un système d'équations linéaires de la forme où x et a sont des vecteurs colonne de dimension p, y et b sont des vecteurs colonne de dimension q, A, B, C, D sont comme précédemment. En multipliant la seconde équation par BD puis en la soustrayant de la première, il vient Ainsi, la résolution de cette équation en x est possible dès que D et son complément de Schur sont inversibles. Il est ensuite possible d'obtenir y en résolvant l'équation Cx + Dy = b. Cette méthode réduit le problème de l'inversion d'une matrice de dimension (p + q) × (p + q) à celui de l'inversion de deux matrices de dimensions respectives p×p et q×q. En pratique, la matrice D doit être bien conditionnée pour rendre la méthode précise. Soit un vecteur gaussien de R de matrice de covariance Ici, (respectivement ) est un vecteur gaussien de R (respectivement R) de matrice de covariance (respectivement ), et désigne la transposée de .
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (5)
EE-411: Fundamentals of inference and learning
This is an introductory course in the theory of statistics, inference, and machine learning, with an emphasis on theoretical understanding & practical exercises. The course will combine, and alternat
MGT-418: Convex optimization
This course introduces the theory and application of modern convex optimization from an engineering perspective.
COM-309: Introduction to quantum information processing
Information is processed in physical devices. In the quantum regime the concept of classical bit is replaced by the quantum bit. We introduce quantum principles, and then quantum communications, key d
Afficher plus
Séances de cours associées (33)
Modèles linéaires: Ridge, OLS et LASSO
Couvre des modèles linéaires comme Ridge, OLS et LASSO, expliquant les valeurs singulières et l'analyse de régression.
Matrice de densité: Mélanges statistiques
Couvre la matrice de densité et les mélanges statistiques dans les systèmes quantiques, soulignant l'importance de comprendre le mélange statistique des états.
Optimisation convexe : théorie et applications
Explore la théorie et les applications de l'optimisation convexe, couvrant des sujets tels que la fonction log-déterminante, les transformations affines et l'entropie relative.
Afficher plus
Publications associées (32)
Concepts associés (8)
Décomposition LU
En algèbre linéaire, la décomposition LU est une méthode de décomposition d'une matrice comme produit d'une matrice triangulaire inférieure (comme lower, inférieure en anglais) par une matrice triangulaire supérieure (comme upper, supérieure). Cette décomposition est utilisée en analyse numérique pour résoudre des systèmes d'équations linéaires. Soit une matrice carrée. On dit que admet une décomposition LU s'il existe une matrice triangulaire inférieure formée de 1 sur la diagonale, notée , et une matrice triangulaire supérieure, notée , qui vérifient l'égalité Il n'est pas toujours vrai qu'une matrice admette une décomposition LU.
Matrice par blocs
vignette|Un matrice présente une structure par blocs si l'on peut isoler les termes non nuls dans des sous-matrices (ici la structure « diagonale par blocs » d'une réduite de Jordan). On appelle matrice par blocs une matrice divisée en blocs à partir d'un groupement quelconque de termes contigus de sa diagonale. Chaque bloc étant indexé comme on indicerait les éléments d'une matrice, la somme et le produit de deux matrices partitionnées suivant les mêmes tailles de bloc, s'obtiennent avec les mêmes règles formelles que celles des composantes (mais en veillant à l'ordre des facteurs dans les produits matriciels!).
Matrice (mathématiques)
thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Afficher plus