Linear least squaresLinear least squares (LLS) is the least squares approximation of linear functions to data. It is a set of formulations for solving statistical problems involved in linear regression, including variants for ordinary (unweighted), weighted, and generalized (correlated) residuals. Numerical methods for linear least squares include inverting the matrix of the normal equations and orthogonal decomposition methods. The three main linear least squares formulations are: Ordinary least squares (OLS) is the most common estimator.
Groupe unitaireEn mathématiques, le groupe unitaire de degré n sur un corps K relativement à un anti automorphisme involutif (cf. Algèbre involutive) σ de K (par exemple K le corps des nombres complexes et σ la conjugaison) est le groupe des matrices carrées A d'ordre n à coefficients dans K, qui sont unitaires pour σ, c'est-à-dire telles Aσ(tA) = In. Plus généralement, on peut définir le groupe unitaire d'une forme hermitienne ou antihermitienne non dégénérée φ sur un espace vectoriel sur un corps comme étant le groupe des éléments f de GL(E) tels que φ(f(x), f(y)) = φ(x, y) quels que soient les vecteurs x et y de E.
Regularized least squaresRegularized least squares (RLS) is a family of methods for solving the least-squares problem while using regularization to further constrain the resulting solution. RLS is used for two main reasons. The first comes up when the number of variables in the linear system exceeds the number of observations. In such settings, the ordinary least-squares problem is ill-posed and is therefore impossible to fit because the associated optimization problem has infinitely many solutions.
ExtremumUn extremum (pluriel extrema ou extremums), ou extrémum (pluriel extrémums), est une valeur extrême, soit maximum, soit minimum. Cette notion est particulièrement utilisée en mathématiques, où l'expression maximo-minimum, introduite par Nicolas de Cues, correspond à partir de Fermat et Leibniz aux extrêmes d'une courbe ou d'une fonction, repérés par le fait que les dérivées s'y annulent. Elle est aussi utilisée en physique, où le principe de moindre action est un principe extrémal ainsi que Euler l'a montré.
Orthogonal transformationIn linear algebra, an orthogonal transformation is a linear transformation T : V → V on a real inner product space V, that preserves the inner product. That is, for each pair u, v of elements of V, we have Since the lengths of vectors and the angles between them are defined through the inner product, orthogonal transformations preserve lengths of vectors and angles between them. In particular, orthogonal transformations map orthonormal bases to orthonormal bases. Orthogonal transformations are injective: if then , hence , so the kernel of is trivial.
Relaxation continueEn informatique théorique et en recherche opérationnelle, la relaxation continue est une méthode qui consiste à interpréter de façon continue un problème combinatoire ou discret. Cette méthode est utilisée afin d'obtenir des informations sur le problème discret initial et parfois même pour obtenir sa solution. Les problèmes discrets ou combinatoires sont en effet très difficiles à traiter en raison de l'explosion combinatoire et il est courant de les traiter par une méthode de séparation et évaluation (branch and bound en anglais) : la relaxation continue fait partie des algorithmes d'évaluation nécessaire à la mise en œuvre de cette méthode.
Matière noirevignette|redresse=1.1|Répartition de la densité d'énergie de l'Univers après exploitation des premières données du satellite Planck. La matière noire en est une des composantes principales. La matière noire ou matière sombre, est une catégorie de matière hypothétique, invoquée dans le cadre du Modèle ΛCDM pour rendre compte de certaines observations astrophysiques, notamment les estimations de la masse des galaxies ou des amas de galaxies et les propriétés des fluctuations du fond diffus cosmologique.
Méthode des moindres carrés ordinairevignette|Graphique d'une régression linéaire La méthode des moindres carrés ordinaire (MCO) est le nom technique de la régression mathématique en statistiques, et plus particulièrement de la régression linéaire. Il s'agit d'un modèle couramment utilisé en économétrie. Il s'agit d'ajuster un nuage de points selon une relation linéaire, prenant la forme de la relation matricielle , où est un terme d'erreur.
Projective unitary groupIn mathematics, the projective unitary group PU(n) is the quotient of the unitary group U(n) by the right multiplication of its center, U(1), embedded as scalars. Abstractly, it is the holomorphic isometry group of complex projective space, just as the projective orthogonal group is the isometry group of real projective space. In terms of matrices, elements of U(n) are complex n×n unitary matrices, and elements of the center are diagonal matrices equal to eiθ multiplied by the identity matrix.
Global optimizationGlobal optimization is a branch of applied mathematics and numerical analysis that attempts to find the global minima or maxima of a function or a set of functions on a given set. It is usually described as a minimization problem because the maximization of the real-valued function is equivalent to the minimization of the function . Given a possibly nonlinear and non-convex continuous function with the global minima and the set of all global minimizers in , the standard minimization problem can be given as that is, finding and a global minimizer in ; where is a (not necessarily convex) compact set defined by inequalities .