Résumé
En mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée A pour laquelle il existe une matrice B de même taille n avec laquelle les produits AB et BA sont égaux à la matrice identité. Dans ce cas la matrice B est unique, appelée matrice inverse de A et notée B = A. Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé. Si les coefficients d’une matrice carrée sont pris dans un anneau commutatif K, cette matrice est inversible si et seulement si elle représente un isomorphisme de K, ce qui se traduit par un déterminant inversible. En particulier, si K est un corps commutatif tel que R ou C, l’inversibilité est caractérisée par un déterminant non nul, mais aussi par la maximalité du rang ou d’autres propriétés de l’endomorphisme représenté. Diverses conditions plus simples peuvent s’appliquer sur certaines classes de matrices. L’algorithme du pivot de Gauss permet un calcul exact de l’inverse mais peu robuste aux propagations d’erreurs lorsque la taille de la matrice devient trop importante. D’autres algorithmes se révèlent préférables en pratique pour une approximation de l’inverse. Dans l’ensemble des matrices carrées de taille n à coefficients dans un anneau K, l’ensemble des matrices inversibles forme un groupe multiplicatif, appelé groupe général linéaire et noté . La notion de matrice inverse est généralisée par celle de pseudo-inverse et en particulier les inverses à gauche ou à droite. Contrairement à la multiplication dans le corps des réels ou celui des complexes, la multiplication matricielle (même par une matrice non nulle) n’est pas toujours une opération réversible (on dit que cette loi de composition n’est pas régulière), au sens où l’égalité de deux produits AB = AC n’implique pas forcément l’égalité B = C. De même, connaissant une matrice A et une matrice Y, l’équation AX = Y ne peut se résoudre en divisant les deux membres de l’égalité par la matrice A.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (33)
MATH-111(e): Linear Algebra
L'objectif du cours est d'introduire les notions de base de l'algèbre linéaire et ses applications.
PHYS-432: Quantum field theory II
The goal of the course is to introduce relativistic quantum field theory as the conceptual and mathematical framework describing fundamental interactions such as Quantum Electrodynamics.
MATH-111(g): Linear Algebra
L'objectif du cours est d'introduire les notions de base de l'algèbre linéaire et ses applications.
Afficher plus
Concepts associés (43)
Matrice (mathématiques)
thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Matrice identité
En mathématiques, plus précisement en algèbre linéaire, une matrice identité ou matrice unité est une matrice carrée diagonale dont la diagonale principale est remplie de , et dont les autres coefficients valent . Elle peut s'écrire : La matrice identité de taille se note : Il est possible de noter les coefficients de la matrice identité d'ordre avec le delta de Kronecker : avec Les matrices identité sont des matrices unitaires et sont donc inversibles et normales.
Factorisation de Cholesky
La factorisation de Cholesky, nommée d'après André-Louis Cholesky, consiste, pour une matrice symétrique définie positive , à déterminer une matrice triangulaire inférieure telle que : . La matrice est en quelque sorte une « racine carrée » de . Cette décomposition permet notamment de calculer la matrice inverse , de calculer le déterminant de A (égal au carré du produit des éléments diagonaux de ) ou encore de simuler une loi multinormale. Elle est aussi utilisée en chimie quantique pour accélérer les calculs (voir Décomposition de Cholesky (chimie quantique)).
Afficher plus
MOOCs associés (16)
Algèbre Linéaire (Partie 1)
Un MOOC francophone d'algèbre linéaire accessible à tous, enseigné de manière rigoureuse et ne nécessitant aucun prérequis.
Algèbre Linéaire (Partie 1)
Un MOOC francophone d'algèbre linéaire accessible à tous, enseigné de manière rigoureuse et ne nécessitant aucun prérequis.
Algèbre Linéaire (Partie 2)
Un MOOC francophone d'algèbre linéaire accessible à tous, enseigné de manière rigoureuse et ne nécessitant aucun prérequis.
Afficher plus