Méthode de JacobiLa méthode de Jacobi, due au mathématicien allemand Karl Jacobi, est une méthode itérative de résolution d'un système matriciel de la forme Ax = b. Pour cela, on utilise une suite x qui converge vers un point fixe x, solution du système d'équations linéaires. On cherche à construire, pour x donné, la suite x = F(x) avec . où est une matrice inversible. où F est une fonction affine. La matrice B = MN est alors appelée matrice de Jacobi.
Variété riemannienneEn mathématiques, et plus précisément en géométrie, la variété riemannienne est l'objet de base étudié en géométrie riemannienne. Il s'agit d'une variété, c'est-à-dire un espace courbe généralisant les courbes (de dimension 1) ou les surfaces (de dimension 2) à une dimension n quelconque, et sur laquelle il est possible d'effectuer des calculs de longueur. En termes techniques, une variété riemannienne est une variété différentielle munie d'une structure supplémentaire appelée métrique riemannienne permettant de calculer le produit scalaire de deux vecteurs tangents à la variété en un même point.
Dualité (optimisation)En théorie de l'optimisation, la dualité ou principe de dualité désigne le principe selon lequel les problèmes d'optimisation peuvent être vus de deux perspectives, le problème primal ou le problème dual, et la solution du problème dual donne une borne inférieure à la solution du problème (de minimisation) primal. Cependant, en général les valeurs optimales des problèmes primal et dual ne sont pas forcément égales : cette différence est appelée saut de dualité. Pour les problèmes en optimisation convexe, ce saut est nul sous contraintes.
Calcul numérique d'une intégraleEn analyse numérique, il existe une vaste famille d’algorithmes dont le but principal est d’estimer la valeur numérique de l’intégrale définie sur un domaine particulier pour une fonction donnée (par exemple l’intégrale d’une fonction d’une variable sur un intervalle). Ces techniques procèdent en trois phases distinctes : Décomposition du domaine en morceaux (un intervalle en sous-intervalles contigus) ; Intégration approchée de la fonction sur chaque morceau ; Sommation des résultats numériques ainsi obtenus.
Espace de FinslerUn espace de Finsler est une variété différentielle possédant une métrique asymétrique locale, c'est-à-dire une sur le fibré tangent. Les variétés de Finsler sont donc une généralisation des variétés de Riemann. Le concept a été étudié par Paul Finsler en 1918. Élie Cartan y reconnaitra un (1933). Le lien avec le calcul des variations : la définition métrique mène « directement » à des raisonnements sur les géodésiques, comme solutions à des problèmes de recherches d'extrema. Finsler Geometry The Finsler G
Constrained optimizationIn mathematical optimization, constrained optimization (in some contexts called constraint optimization) is the process of optimizing an objective function with respect to some variables in the presence of constraints on those variables. The objective function is either a cost function or energy function, which is to be minimized, or a reward function or utility function, which is to be maximized.
Variété différentielleEn mathématiques, les variétés différentielles ou variétés différentiables sont les objets de base de la topologie différentielle et de la géométrie différentielle. Il s'agit de variétés, « espaces courbes » localement modelés sur l'espace euclidien de dimension n, sur lesquelles il est possible de généraliser une bonne part des opérations du calcul différentiel et intégral. Une variété différentielle se définit donc d'abord par la donnée d'une variété topologique, espace topologique localement homéomorphe à l'espace R.
Algorithme du gradientLalgorithme du gradient, aussi appelé algorithme de descente de gradient, désigne un algorithme d'optimisation différentiable. Il est par conséquent destiné à minimiser une fonction réelle différentiable définie sur un espace euclidien (par exemple, , l'espace des n-uplets de nombres réels, muni d'un produit scalaire) ou, plus généralement, sur un espace hilbertien. L'algorithme est itératif et procède donc par améliorations successives. Au point courant, un déplacement est effectué dans la direction opposée au gradient, de manière à faire décroître la fonction.
Structure presque complexeEn géométrie différentielle, une structure presque complexe sur une variété différentielle réelle est la donnée d'une structure d'espace vectoriel complexe sur chaque espace tangent. Une structure presque complexe J sur une variété différentielle M est un champ d'endomorphismes J, c'est-à-dire une section globale du fibré vectoriel , vérifiant : Une variété différentielle munie d'une structure presque complexe est appelée une variété presque complexe.
Relaxation (iterative method)In numerical mathematics, relaxation methods are iterative methods for solving systems of equations, including nonlinear systems. Relaxation methods were developed for solving large sparse linear systems, which arose as finite-difference discretizations of differential equations. They are also used for the solution of linear equations for linear least-squares problems and also for systems of linear inequalities, such as those arising in linear programming. They have also been developed for solving nonlinear systems of equations.