Concepts associés (37)
Groupe orthogonal
En mathématiques, le groupe orthogonal réel de degré n, noté O(n), est le groupe des transformations géométriques d'un espace Euclidien de dimension n qui préservent les distances (isométries) et le point origine de l'espace. Formellement, on introduit le groupe orthogonal d'une forme quadratique q sur E, espace vectoriel sur un corps commutatif K, comme le sous-groupe du groupe linéaire GL(E) constitué des automorphismes f de E qui laissent q invariante : pour tout vecteur x de E.
Matrice (mathématiques)
thumb|upright=1.5 En mathématiques, les matrices sont des tableaux d'éléments (nombres, caractères) qui servent à interpréter en termes calculatoires, et donc opérationnels, les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire. Toutes les disciplines étudiant des phénomènes linéaires utilisent les matrices. Quant aux phénomènes non linéaires, on en donne souvent des approximations linéaires, comme en optique géométrique avec les approximations de Gauss.
Rotation vectorielle
Soit E un espace vectoriel euclidien. Une rotation vectorielle de E est un élément du groupe spécial orthogonal SO(E). Si on choisit une base orthonormée de E, sa matrice dans cette base est orthogonale directe. Matrice de rotation Dans le plan vectoriel euclidien orienté, une rotation vectorielle est simplement définie par son angle . Sa matrice dans une base orthonormée directe est : Autrement dit, un vecteur de composantes a pour image le vecteur de composantes que l'on peut calculer avec l'égalité matricielle : c'est-à-dire que l'on a : et Si par exemple et , désigne un des angles du triangle rectangle de côtés 3, 4 et 5.
Valeur propre, vecteur propre et espace propre
En mathématiques, et plus particulièrement en algèbre linéaire, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre, les vecteurs auxquels il s'applique s'appellent vecteurs propres, réunis en un espace propre.
Matrice de rotation
En mathématiques, et plus précisément en algèbre linéaire, une matrice de rotation Q est une matrice orthogonale de déterminant 1, ce qui peut s'exprimer par les équations suivantes : QtQ = I = QQt et det Q = 1, où Qt est la matrice transposée de Q, et I est la matrice identité. Ces matrices sont exactement celles qui, dans un espace euclidien, représentent les isométries (vectorielles) directes.
Quaternion
vignette|Plaque commémorative de la naissance des quaternions sur le pont de Broom (Dublin). En mathématiques, un quaternion est un nombre dans un sens généralisé. Les quaternions englobent les nombres réels et complexes dans un système de nombres plus vastes où la multiplication n'est cette fois-ci plus une loi commutative. Les quaternions furent introduits par le mathématicien irlandais William Rowan Hamilton en 1843. Ils trouvent aujourd'hui des applications en mathématiques, en physique, en informatique et en sciences de l'ingénieur.
Matrice unitaire
En algèbre linéaire, une matrice carrée U à coefficients complexes est dite unitaire si elle vérifie les égalités : où la matrice adjointe de U est notée U* (ou U en physique, et plus particulièrement en mécanique quantique) et I désigne la matrice identité. L'ensemble des matrices unitaires de taille n forme le groupe unitaire U(n). Les matrices unitaires carrées à coefficients réels sont les matrices orthogonales.
Matrice diagonalisable
En mathématiques, une matrice diagonalisable est une matrice carrée semblable à une matrice diagonale. Cette propriété est équivalente à l'existence d'une base de vecteurs propres, ce qui permet de définir de manière analogue un endomorphisme diagonalisable d'un espace vectoriel. Le fait qu'une matrice soit diagonalisable dépend du corps dans lequel sont cherchées les valeurs propres, ce que confirme la caractérisation par le fait que le polynôme minimal soit scindé à racines simples.
Conditionnement (analyse numérique)
En analyse numérique, une discipline des mathématiques, le conditionnement mesure la dépendance de la solution d'un problème numérique par rapport aux données du problème, ceci afin de contrôler la validité d'une solution calculée par rapport à ces données. En effet, les données d'un problème numérique dépendent en général de mesures expérimentales et sont donc entachées d'erreurs. Il s'agit le plus souvent d'une quantité numérique. De façon plus générale, on peut dire que le conditionnement associé à un problème est une mesure de la difficulté de calcul numérique du problème.
Matrice transposée
En mathématiques, la matrice transposée (ou la transposée) d'une matrice est la matrice , également notée ou , obtenue en échangeant les lignes et les colonnes de . Plus précisément, si on note pour et pour les coefficients respectivement de et de alors pour tout on a . Par exemple, si alors On suppose ici que K est un anneau commutatif. On note et deux matrices quelconques de et un scalaire. L'application « transposition » est linéaire : La transposée de est . Par conséquent, l'application « transposition » est bijective.

Graph Chatbot

Chattez avec Graph Search

Posez n’importe quelle question sur les cours, conférences, exercices, recherches, actualités, etc. de l’EPFL ou essayez les exemples de questions ci-dessous.

AVERTISSEMENT : Le chatbot Graph n'est pas programmé pour fournir des réponses explicites ou catégoriques à vos questions. Il transforme plutôt vos questions en demandes API qui sont distribuées aux différents services informatiques officiellement administrés par l'EPFL. Son but est uniquement de collecter et de recommander des références pertinentes à des contenus que vous pouvez explorer pour vous aider à répondre à vos questions.