ApproximationUne approximation est une représentation imprécise ayant toutefois un lien étroit avec la quantité ou l’objet qu’elle reflète : approximation d’un nombre (de π par 3,14, de la vitesse instantanée d’un véhicule par sa vitesse moyenne entre deux points), d’une fonction mathématique, d’une solution d’un problème d’optimisation, d’une forme géométrique, d’une loi physique. Lorsqu’une partie de l’information nécessaire fait défaut, une approximation peut se substituer à une représentation exacte.
Error analysis (mathematics)In mathematics, error analysis is the study of kind and quantity of error, or uncertainty, that may be present in the solution to a problem. This issue is particularly prominent in applied areas such as numerical analysis and statistics. In numerical simulation or modeling of real systems, error analysis is concerned with the changes in the output of the model as the parameters to the model vary about a mean. For instance, in a system modeled as a function of two variables Error analysis deals with the propagation of the numerical errors in and (around mean values and ) to error in (around a mean ).
Matrice à coefficients positifsUne matrice de type est à coefficients positifs lorsque tous ses éléments sont réels positifs ; on écrira alors . Elle est dite strictement positive lorsque tous ses éléments sont strictement positifs ; on écrira alors . et étant deux matrices réelles on définit une relation d'ordre partiel sur ces matrices en posant . Il est immédiat que cette relation d'ordre est compatible avec l'addition. De même elle est compatible avec la multiplication (à gauche ou à droite) par une matrice positive.
Vectorization (mathematics)In mathematics, especially in linear algebra and matrix theory, the vectorization of a matrix is a linear transformation which converts the matrix into a vector. Specifically, the vectorization of a m × n matrix A, denoted vec(A), is the mn × 1 column vector obtained by stacking the columns of the matrix A on top of one another: Here, represents the element in the i-th row and j-th column of A, and the superscript denotes the transpose. Vectorization expresses, through coordinates, the isomorphism between these (i.
Racine carrée d'une matriceEn mathématiques, la notion de racine carrée d'une matrice particularise aux anneaux de matrices carrées la notion générale de racine carrée dans un anneau. Soient un entier naturel n non nul et M une matrice carrée d'ordre n à coefficients dans un anneau A. Un élément R de M(A) est une racine carrée de M si R = M. Une matrice donnée peut n'admettre aucune racine carrée, comme un nombre fini voire infini de racine carrées. Dans M(R) : est une racine carrée de les (pour tout réel x) sont des racines carrées de n'a pas de racine carrée R, car cela imposerait (mais elle en a dans M(C)).
Matrix decompositionIn the mathematical discipline of linear algebra, a matrix decomposition or matrix factorization is a factorization of a matrix into a product of matrices. There are many different matrix decompositions; each finds use among a particular class of problems. In numerical analysis, different decompositions are used to implement efficient matrix algorithms. For instance, when solving a system of linear equations , the matrix A can be decomposed via the LU decomposition.
Logarithme d'une matriceEn mathématiques, et plus particulièrement en analyse, un logarithme d'une matrice est une autre matrice telle que son exponentielle soit égale à la matrice initiale. C'est une généralisation de la notion usuelle de logarithme, considéré comme inverse de la fonction exponentielle, mais le logarithme n'existe pas pour toutes les matrices, et n'est pas unique en général. L'étude du logarithme des matrices conduit au développement de la , car les matrices ayant un logarithme appartiennent à un groupe de Lie, et le logarithme est alors l'élément correspondant de l'algèbre de Lie associée.
Leopold KroneckerLeopold Kronecker ( - ) est un mathématicien et logicien allemand. Persuadé que l'arithmétique et l'analyse doivent être fondées sur les « nombres entiers », il est célèbre pour la citation suivante : Cela met Kronecker en opposition avec certains développements mathématiques de Georg Cantor, l'un de ses étudiants. Le point de vue de Kronecker sera repris par Hermann Weyl au siècle suivant. En 1845, à l'université de Berlin, Kronecker écrit sa dissertation sur la théorie des nombres, en donnant une formulation spéciale aux unités dans certains corps de nombres.
Décomposition d'une matrice en éléments propresEn algèbre linéaire, la décomposition d'une matrice en éléments propres est la factorisation de la matrice en une forme canonique où les coefficients matriciels sont obtenus à partir des valeurs propres et des vecteurs propres. Un vecteur non nul v à N lignes est un vecteur propre d'une matrice carrée A à N lignes et N colonnes si et seulement si il existe un scalaire λ tel que : où λ est appelé valeur propre associée à v. Cette dernière équation est appelée « équation aux valeurs propres ».
Matrice diagonaleEn algèbre linéaire, une matrice diagonale est une matrice carrée dont les coefficients en dehors de la diagonale principale sont nuls. Les coefficients de la diagonale peuvent être ou ne pas être nuls. Une matrice diagonale est une matrice qui correspond à la représentation d'un endomorphisme diagonalisable dans une base de vecteurs propres. La matrice d'un endomorphisme diagonalisable est semblable à une matrice diagonale. Toute matrice diagonale est symétrique, normale et triangulaire.