Point stationnaire350px|thumb|right|Les points stationnaires de la fonction sont marquées par des ronds rouges. Dans ce cas, ce sont des extrema locaux. Les carrés bleus désignent les points d'inflexion. En analyse réelle, un point stationnaire ou point critique d'une fonction dérivable d'une variable réelle est un point de son graphe où sa dérivée s'annule. Visuellement, cela se traduit par un point où la fonction arrête de croître ou de décroître. Pour une fonction de plusieurs variables réelles, un point stationnaire (critique) est un point où le gradient s'annule.
Valeur propre, vecteur propre et espace propreEn mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Théorème de Fermat sur les points stationnairesEn analyse réelle, le théorème de Fermat sur les points stationnaires permet, lors de la recherche d'éventuels extrema locaux d'une fonction dérivable, de limiter l'étude aux zéros de sa dérivée et aux bornes de son ensemble de définition. L'énoncé est le suivant : La réciproque est fausse : par exemple, la fonction , en , a une dérivée nulle mais pas d'extremum local. La condition nécessaire pour un extremum local ne s'applique pas aux bornes de l'intervalle. Par exemple, la fonction admet deux extremums globaux (a fortiori locaux), atteints en 0 et 1.
Matrice normaleEn algèbre linéaire, une matrice carrée A à coefficients complexes est une matrice normale si elle commute avec sa matrice adjointe A*, c'est-à-dire si A⋅A* = A*⋅A. Toutes les matrices hermitiennes, ou unitaires sont normales, en particulier, parmi les matrices à coefficients réels, toutes les matrices symétriques, antisymétriques ou orthogonales. Ce théorème — cas particulier du théorème de décomposition de Schur — est connu sous le nom de théorème spectral, et les éléments diagonaux de UAU sont alors les valeurs propres de A.
Matrice antisymétriqueEn mathématiques, et plus précisément en algèbre linéaire, une matrice antisymétrique est une matrice carrée opposée à sa transposée. Une matrice carrée A à coefficients dans un anneau quelconque est dite antisymétrique si sa transposée est égale à son opposée, c'est-à-dire si elle satisfait à l'équation : A = –A ou encore, en l'écrivant avec des coefficients sous la forme A = (ai,j), si : pour tout i et j, aj,i = –ai,j Les matrices suivantes sont antisymétriques : Le cas où la matrice est à coefficients dans un anneau de caractéristique 2 est très particulier.
Algorithme de recherche de valeur propreUn problème important en analyse numérique consiste à développer des algorithmes efficaces et stables pour trouver les valeurs propres d'une matrice. Ces algorithmes de recherche de valeurs propres peuvent être étendus pour donner les vecteurs propres associés. Valeur propre, vecteur propre et espace propre Pour une matrice carrée A de taille n × n réelle ou complexe, une valeur propre λ et son vecteur propre généralisé associé v sont un couple vérifiant la relation où v est un vecteur colonne n × 1 non nul, I la matrice identité de taille n × n, k un entier positif.
Unité imaginaireEn mathématiques, l’unité imaginaire est un nombre complexe, noté (parfois en physique afin de ne pas le confondre avec la notation de l'intensité électrique), dont le carré vaut –1. Ses multiples par des nombres réels constituent les nombres imaginaires purs. L'appellation d'« imaginaire » est due à René Descartes et celle d'« unité imaginaire » à Carl Friedrich Gauss. Sans avoir disparu, cette appellation n'est pas d'un usage très généralisé chez les mathématiciens, qui se contentent souvent de parler du nombre i.
Point d'inflexionthumb|Représentation graphique de la fonction x ↦ x montrant un point d'inflexion aux coordonnées (0, 0). thumb|Point d'inflexion de la fonction arc tangente. En mathématiques, et plus précisément en analyse et en géométrie différentielle, un point d'inflexion est un point où s'opère un changement de concavité d'une courbe plane. En un tel point, la tangente traverse la courbe. C'est pourquoi les points d'inflexion, quand on arrive à les déterminer explicitement, aident à bien représenter l'allure de la courbe.
HermitienPlusieurs entités mathématiques sont qualifiées d'hermitiennes en référence au mathématicien Charles Hermite. Produit scalaire#Généralisation aux espaces vectoriels complexesProduit scalaire hermitien Soit E un espace vectoriel complexe. On dit qu'une application f définie sur E x E dans C est une forme sesquilinéaire à gauche si quels que soient les vecteurs X, Y, Z appartenant à E, et a, b des scalaires : f est semi-linéaire par rapport à la première variable et f est linéaire par rapport à la deuxième variable Une telle forme est dite hermitienne (ou à symétrie hermitienne) si de plus : ou, ce qui est équivalent : Elle est dite hermitienne définie positive si pour tout vecteur .
Mécanique matricielleLa mécanique matricielle est une formulation de la mécanique quantique construite par Werner Heisenberg, Max Born et Pascual Jordan en 1925. La mécanique matricielle est la première définition complète et correcte de la mécanique quantique. Elle prolonge le modèle de Bohr en décrivant la manière dont se produisent les sauts quantiques, en interprétant les propriétés physiques des particules comme des matrices évoluant dans le temps.