Résumé
En mathématiques, la notion de racine carrée d'une matrice particularise aux anneaux de matrices carrées la notion générale de racine carrée dans un anneau. Soient un entier naturel n non nul et M une matrice carrée d'ordre n à coefficients dans un anneau A. Un élément R de M(A) est une racine carrée de M si R = M. Une matrice donnée peut n'admettre aucune racine carrée, comme un nombre fini voire infini de racine carrées. Dans M(R) : est une racine carrée de les (pour tout réel x) sont des racines carrées de n'a pas de racine carrée R, car cela imposerait (mais elle en a dans M(C)). Dans M(C), la matrice n'a pas de racine carrée, parce qu'elle est non nulle mais de carré nul (on dit qu'elle est nilpotente d'indice 2). En effet, une racine carrée R serait aussi nilpotente (de puissance ), or toute matrice nilpotente de taille 2 est de carré nul. On aurait donc M = R = 0, ce qui n'est pas le cas. Si R est une racine carrée de M alors R est inversible si et seulement si M l'est. Si une matrice est inversible, les racines carrées de son inverse sont les inverses de ses racines carrées. Toute matrice symétrique à coefficients réels est diagonalisable via une matrice de passage orthogonale, et elle est positive si et seulement si ses valeurs propres sont des réels positifs ou nuls. Par ailleurs, si une matrice S est diagonalisable alors son carré a mêmes sous-espaces propres (associés aux carrés des valeurs propres de S). Par conséquent, parmi les racines carrées d'une matrice symétrique positive M, une et une seule est symétrique positive : la matrice S qui a mêmes sous-espaces propres que M et dont les valeurs propres associées sont les racines carrées respectives de celles de M. De plus, lorsque M est définie positive, S l'est aussi. Pour les matrices à coefficients complexes, la situation est la même en remplaçant « symétrique » par « hermitienne » et « orthogonale » par « unitaire » . Le calcul d'une racine carrée d'une matrice A peut s'effectuer par convergence d'une suite de matrices. Soit Y0 = A et Z0 = I où I est la matrice identité.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Concepts associés (25)
Racine carrée d'une matrice
En mathématiques, la notion de racine carrée d'une matrice particularise aux anneaux de matrices carrées la notion générale de racine carrée dans un anneau. Soient un entier naturel n non nul et M une matrice carrée d'ordre n à coefficients dans un anneau A. Un élément R de M(A) est une racine carrée de M si R = M. Une matrice donnée peut n'admettre aucune racine carrée, comme un nombre fini voire infini de racine carrées. Dans M(R) : est une racine carrée de les (pour tout réel x) sont des racines carrées de n'a pas de racine carrée R, car cela imposerait (mais elle en a dans M(C)).
Matrice (mathématiques)
thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Factorisation de Cholesky
La factorisation de Cholesky, nommée d'après André-Louis Cholesky, consiste, pour une matrice symétrique définie positive , à déterminer une matrice triangulaire inférieure telle que : . La matrice est en quelque sorte une « racine carrée » de . Cette décomposition permet notamment de calculer la matrice inverse , de calculer le déterminant de A (égal au carré du produit des éléments diagonaux de ) ou encore de simuler une loi multinormale. Elle est aussi utilisée en chimie quantique pour accélérer les calculs (voir Décomposition de Cholesky (chimie quantique)).
Afficher plus
Séances de cours associées (256)
Équations matricielles : Trouver des variables libres
Explique comment trouver des variables libres dans les équations matricielles et analyser les polynômes caractéristiques.
Caractérisation des matrices inversées
Explore les propriétés des matrices invertibles, y compris les solutions uniques et l'indépendance linéaire.
Matrices diagonalizables et décomposition spectrale
Couvre les matrices diagonales, les matrices symétriques et la décomposition spectrale.
Afficher plus