Divide-and-conquer eigenvalue algorithmDivide-and-conquer eigenvalue algorithms are a class of eigenvalue algorithms for Hermitian or real symmetric matrices that have recently (circa 1990s) become competitive in terms of stability and efficiency with more traditional algorithms such as the QR algorithm. The basic concept behind these algorithms is the divide-and-conquer approach from computer science. An eigenvalue problem is divided into two problems of roughly half the size, each of these are solved recursively, and the eigenvalues of the original problem are computed from the results of these smaller problems.
LinearizationIn mathematics, linearization is finding the linear approximation to a function at a given point. The linear approximation of a function is the first order Taylor expansion around the point of interest. In the study of dynamical systems, linearization is a method for assessing the local stability of an equilibrium point of a system of nonlinear differential equations or discrete dynamical systems. This method is used in fields such as engineering, physics, economics, and ecology.
Generalized eigenvectorIn linear algebra, a generalized eigenvector of an matrix is a vector which satisfies certain criteria which are more relaxed than those for an (ordinary) eigenvector. Let be an -dimensional vector space and let be the matrix representation of a linear map from to with respect to some ordered basis. There may not always exist a full set of linearly independent eigenvectors of that form a complete basis for . That is, the matrix may not be diagonalizable.
Changement de base (algèbre linéaire)En mathématiques, plus précisément en algèbre linéaire, une matrice de passage (ou encore matrice de changement de base) permet d'écrire des formules de changement de base pour les représentations matricielles des vecteurs, des applications linéaires et des formes bilinéaires. Soient K un corps commutatif, E un K-espace vectoriel de dimension finie n, et B, B' deux bases de E. Pour des raisons mnémotechniques, on qualifie B' de nouvelle base, B d'ancienne base.
Théorème spectralEn mathématiques, et plus particulièrement en algèbre linéaire et en analyse fonctionnelle, on désigne par théorème spectral plusieurs énoncés affirmant, pour certains endomorphismes, l'existence de décompositions privilégiées, utilisant en particulier l'existence de sous-espaces propres. vignette|Une illustration du théorème spectral dans le cas fini : un ellipsoïde possède (en général) trois axes de symétrie orthogonaux (notés ici x, y et z).
Matrice symétriquevignette|Matrice 5x5 symétrique. Les coefficients égaux sont représentés par la même couleur. En algèbre linéaire et multilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée, c'est-à-dire telle que a = a pour tous i et j compris entre 1 et n, où les a sont les coefficients de la matrice et n est son ordre. Les coefficients d'une matrice symétrique sont symétriques par rapport à la diagonale principale (du coin en haut à gauche jusqu'à celui en bas à droite).
Matrice de FockEn chimie quantique, la matrice de Fock est une matrice approximant l' mono-électronique d'un système quantique donné dans un ensemble de vecteurs de base. Elle est le plus souvent construite en chimie numérique lors de la résolution des équations de Roothaan pour un système atomique ou moléculaire. La matrice de Fock est en fait une approximation de l'opérateur hamiltonien réel du système quantique. Il inclut les effets de la répulsion inter-électronique seulement en moyenne.
Laplacien discretEn mathématiques, le laplacien discret est une analogie du laplacien continu adaptée au cas de problèmes discret (graphes, par exemple). Il est notamment employé en analyse numérique, par exemple dans le cadre de la résolution de l'équation de la chaleur par la méthode des différences finies, ou en pour la détection de contours. Soit une fonction réelle de deux variables réelles et et . On définit le laplacien discret de comme la somme des dérivées secondes discrètes selon et selon , soit : L'exemple précédent est décrit dans une grille régulière cartésienne de dimension (plan).
Matrice laplacienneEn théorie des graphes, une matrice laplacienne, ou matrice de Laplace, est une matrice représentant un graphe. La matrice laplacienne d'un graphe G non orienté et non réflexif est définie par : où est la matrice des degrés de G et la matrice d'adjacence de G. Formellement : A la différence de la matrice d'adjacence d'un graphe, la matrice laplacienne a une interprétation algébrique ce qui rend son analyse spectrale fructueuse. Plus précisément la matrice correspond à l'opérateur de diffusion sur le graphe.
HermitienPlusieurs entités mathématiques sont qualifiées d'hermitiennes en référence au mathématicien Charles Hermite. Produit scalaire#Généralisation aux espaces vectoriels complexesProduit scalaire hermitien Soit E un espace vectoriel complexe. On dit qu'une application f définie sur E x E dans C est une forme sesquilinéaire à gauche si quels que soient les vecteurs X, Y, Z appartenant à E, et a, b des scalaires : f est semi-linéaire par rapport à la première variable et f est linéaire par rapport à la deuxième variable Une telle forme est dite hermitienne (ou à symétrie hermitienne) si de plus : ou, ce qui est équivalent : Elle est dite hermitienne définie positive si pour tout vecteur .