En mathématiques, en algèbre linéaire, une matrice tridiagonale est une matrice dont tous les coefficients qui ne sont ni sur la diagonale principale, ni sur la diagonale juste au-dessus, ni sur la diagonale juste en dessous, sont nuls.
Par exemple, la matrice suivante est tridiagonale :
Une matrice , dont on note les coefficients a, est dite tridiagonale si :
a = 0 pour tous (i, j) tels que i – j > 1,
autrement dit si c'est une matrice de Hessenberg à la fois supérieure et inférieure.
Si une matrice réelle tridiagonale A vérifie ak,k+1 × ak+1,k > 0 pour k = 1, 2, ..., n — c’est-à-dire si les signes de ses coefficients sont symétriques — alors elle est semblable à une matrice hermitienne, et donc toutes ses valeurs propres sont réelles. Cette dernière propriété est conservée si l'on considère plutôt la condition ak,k+1 × ak+1,k ≥ 0.
L'ensemble de toutes les matrices tridiagonales n × n est un espace vectoriel de dimension n + 2(n – 1) = 3n – 2 (le nombre de coefficients non nuls).
De nombreux algorithmes d'algèbre linéaire nécessitent bien moins d'opérations lorsqu'on les exécute sur des matrices diagonales. Il est courant que ce gain se propage aux matrices tridiagonales.
Par exemple, le déterminant d'une matrice tridiagonale A n×n peut être calculé par la formule récursive suivante :
où l'on note det [A] le k-ième mineur dominant, c'est-à-dire le déterminant de la matrice obtenue en ne gardant que les k premières lignes et colonnes de A. Le calcul du déterminant par cette méthode est linéaire en n pour les matrices tridiagonales, alors qu'il est en n dans le cas général.
Une transformation qui réduit une matrice quelconque à une matrice de Hessenberg réduira une matrice hermitienne à une matrice tridiagonale. Ainsi, de nombreux algorithmes de calcul des valeurs propres utilisent une étape de réduction sous la forme d'une matrice tridiagonale s'ils travaillent sur des matrices hermitiennes.
Une matrice tridiagonale peut être stockée de façon optimisée en utilisant une représentation particulière.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
En mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
LAPACK (pour Linear Algebra Package) est une bibliothèque logicielle écrite en Fortran, dédiée comme son nom l'indique à l'algèbre linéaire numérique. Elle a été développée initialement par l'université du Tennessee, le Courant Institute of Mathematical Sciences, le Numerical Algorithms Group, l'université Rice et les laboratoires d'Argonne et Oak Ridge. Cette bibliothèque fournit notamment des fonctions pour la résolution de systèmes d'équations linéaires, le calcul de valeurs propres et les décompositions de matrices (LU, QR, SVD, Cholesky).
En algèbre linéaire, une matrice de Hessenberg est une matrice carrée qui est « presque » triangulaire. Pour être exact, dans une matrice de Hessenberg dite « supérieure », tous les éléments se trouvant en dessous de la première sous-diagonale (i.e., la diagonale en dessous de la diagonale principale) sont nuls, et dans une matrice de Hessenberg dite « inférieure », tous les éléments situés au-dessus de la première super-diagonale (i.e., la diagonale au-dessus de la diagonale principale) sont nuls.
L'objectif du cours est d'introduire les notions de base de l'algèbre linéaire et ses applications.
This course teaches the students practical skills needed for solving modern physics problems by means of computation. A number of examples illustrate the utility of numerical computations in various d
The purpose of the course is to introduce the basic notions of linear algebra and its applications.
We consider Lorentzian CFT Wightman functions in momentum space. In particular, we derive a set of reference formulas for computing two- and three-point functions, restricting our attention to three-point functions where the middle operator (corresponding ...
Based on the spectral divide-and-conquer algorithm by Nakatsukasa and Higham [SIAM J. Sci. Comput., 35(3):A1325-A1349, 2013], we propose a new algorithm for computing all the eigenvalues and eigenvectors of a symmetric banded matrix with small bandwidth, w ...
WILEY2021
, ,
Dynamical potentials appear in many advanced electronic-structure methods, including self-energies from many-body perturbation theory, dynamical mean-field theory, electronic-transport formulations, and many embedding approaches. Here, we propose a novel t ...