En mathématiques, la notion de racine carrée d'une matrice particularise aux anneaux de matrices carrées la notion générale de racine carrée dans un anneau. Soient un entier naturel n non nul et M une matrice carrée d'ordre n à coefficients dans un anneau A. Un élément R de M(A) est une racine carrée de M si R = M. Une matrice donnée peut n'admettre aucune racine carrée, comme un nombre fini voire infini de racine carrées. Dans M(R) : est une racine carrée de les (pour tout réel x) sont des racines carrées de n'a pas de racine carrée R, car cela imposerait (mais elle en a dans M(C)). Dans M(C), la matrice n'a pas de racine carrée, parce qu'elle est non nulle mais de carré nul (on dit qu'elle est nilpotente d'indice 2). En effet, une racine carrée R serait aussi nilpotente (de puissance ), or toute matrice nilpotente de taille 2 est de carré nul. On aurait donc M = R = 0, ce qui n'est pas le cas. Si R est une racine carrée de M alors R est inversible si et seulement si M l'est. Si une matrice est inversible, les racines carrées de son inverse sont les inverses de ses racines carrées. Toute matrice symétrique à coefficients réels est diagonalisable via une matrice de passage orthogonale, et elle est positive si et seulement si ses valeurs propres sont des réels positifs ou nuls. Par ailleurs, si une matrice S est diagonalisable alors son carré a mêmes sous-espaces propres (associés aux carrés des valeurs propres de S). Par conséquent, parmi les racines carrées d'une matrice symétrique positive M, une et une seule est symétrique positive : la matrice S qui a mêmes sous-espaces propres que M et dont les valeurs propres associées sont les racines carrées respectives de celles de M. De plus, lorsque M est définie positive, S l'est aussi. Pour les matrices à coefficients complexes, la situation est la même en remplaçant « symétrique » par « hermitienne » et « orthogonale » par « unitaire » . Le calcul d'une racine carrée d'une matrice A peut s'effectuer par convergence d'une suite de matrices. Soit Y0 = A et Z0 = I où I est la matrice identité.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (19)
MATH-111(e): Linear Algebra
L'objectif du cours est d'introduire les notions de base de l'algèbre linéaire et ses applications.
MATH-111(g): Linear Algebra
L'objectif du cours est d'introduire les notions de base de l'algèbre linéaire et ses applications.
MATH-251(c): Numerical analysis
Le cours présente des méthodes numériques pour la résolution de problèmes mathématiques comme des systèmes d'équations linéaires ou non linéaires, approximation de fonctions, intégration et dérivation
Afficher plus
Publications associées (119)
Concepts associés (13)
Matrice (mathématiques)
thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Factorisation de Cholesky
La factorisation de Cholesky, nommée d'après André-Louis Cholesky, consiste, pour une matrice symétrique définie positive , à déterminer une matrice triangulaire inférieure telle que : . La matrice est en quelque sorte une « racine carrée » de . Cette décomposition permet notamment de calculer la matrice inverse , de calculer le déterminant de A (égal au carré du produit des éléments diagonaux de ) ou encore de simuler une loi multinormale. Elle est aussi utilisée en chimie quantique pour accélérer les calculs (voir Décomposition de Cholesky (chimie quantique)).
Calcul fonctionnel holomorphe
En mathématiques, et plus précisément en analyse, le calcul fonctionnel holomorphe désigne l'application du calcul fonctionnel aux fonctions holomorphes, c'est-à-dire qu'étant donnés une fonction holomorphe ƒ de la variable complexe z et un opérateur linéaire T, l'objectif est de construire un opérateur f (T) étendant ƒ de manière « naturelle ». Le cas le plus fréquent est celui où T est un opérateur borné sur un espace de Banach.
Afficher plus

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.