En mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre. Le graphique de la figure 1 illustre ces notions.
La connaissance des vecteurs et valeurs propres offre une information clé sur l'application linéaire considérée. De plus, il existe de nombreux cas où cette connaissance caractérise totalement l'application linéaire.
Ce concept appartient à l'origine à une branche des mathématiques appelée algèbre linéaire. Son utilisation, cependant, dépasse maintenant de loin ce cadre. Il intervient aussi bien en mathématiques pures qu'appliquées. Il apparaît par exemple en géométrie dans l'étude des formes quadratiques, ou en analyse fonctionnelle. Il permet de résoudre des problèmes appliqués aussi variés que celui des mouvements d'une corde vibrante, le classement des pages web par Google, la détermination de la structure de l'espace-temps en théorie de la relativité générale, ou l'étude de l'équation de Schrödinger en mécanique quantique.
L'association entre la géométrie et l'algèbre, à travers la notion de coordonnées, fut introduite en 1637 par René Descartes et Pierre de Fermat. Le contexte est donné pour l'apparition de premiers résultats d'algèbre linéaire comme le calcul d'un déterminant. Ces résultats serviront par la suite d'outil d'analyse des valeurs propres. Cependant, les mathématiques de cette époque ne disposent pas encore des notions indispensables de l'algèbre linéaire, comme une géométrie correspondant à notre espace vectoriel, où les éléments sont définis par leurs opérations.
Le début du voit l'apparition d'outils importants pour la théorie des valeurs propres.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
In probability theory and statistics, a covariance matrix (also known as auto-covariance matrix, dispersion matrix, variance matrix, or variance–covariance matrix) is a square matrix giving the covariance between each pair of elements of a given random vector. Any covariance matrix is symmetric and positive semi-definite and its main diagonal contains variances (i.e., the covariance of each element with itself). Intuitively, the covariance matrix generalizes the notion of variance to multiple dimensions.
vignette|Matrice 5x5 symétrique. Les coefficients égaux sont représentés par la même couleur. En algèbre linéaire et multilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée, c'est-à-dire telle que a = a pour tous i et j compris entre 1 et n, où les a sont les coefficients de la matrice et n est son ordre. Les coefficients d'une matrice symétrique sont symétriques par rapport à la diagonale principale (du coin en haut à gauche jusqu'à celui en bas à droite).
En chimie quantique, la matrice de Fock est une matrice approximant l' mono-électronique d'un système quantique donné dans un ensemble de vecteurs de base. Elle est le plus souvent construite en chimie numérique lors de la résolution des équations de Roothaan pour un système atomique ou moléculaire. La matrice de Fock est en fait une approximation de l'opérateur hamiltonien réel du système quantique. Il inclut les effets de la répulsion inter-électronique seulement en moyenne.
Explore les graphiques isogéniques de courbes elliptiques supersingulaires, montrant des temps de mélange optimaux pour des promenades aléatoires et des applications à la cryptographie.
The learning outcome is to increase the knowledge of simulation methods and the role of computers in the management and the operation of electric power systems.
This course will present some of the core advanced methods in the field for structure discovery, classification and non-linear regression. This is an advanced class in Machine Learning; hence, student
Let k be an algebraically closed field of arbitrary characteristic, let G be a simple simply connected linear algebraic group and let V be a rational irreducible tensor-indecomposable finite-dimension
EPFL2022
, ,
We present an efficient procedure for constructing nonempirical hybrid functionals to accurately predict band gaps of extended systems. We determine mixing parameters by enforcing the generalized Koop
2022
We show that isogeometric Galerkin discretizations of eigenvalue problems related to the Laplace operator subject to any standard type of homogeneous boundary conditions have no outliers in certain op