Algorithme génétiqueLes algorithmes génétiques appartiennent à la famille des algorithmes évolutionnistes. Leur but est d'obtenir une solution approchée à un problème d'optimisation, lorsqu'il n'existe pas de méthode exacte (ou que la solution est inconnue) pour le résoudre en un temps raisonnable. Les algorithmes génétiques utilisent la notion de sélection naturelle et l'appliquent à une population de solutions potentielles au problème donné.
Covariance matrixIn probability theory and statistics, a covariance matrix (also known as auto-covariance matrix, dispersion matrix, variance matrix, or variance–covariance matrix) is a square matrix giving the covariance between each pair of elements of a given random vector. Any covariance matrix is symmetric and positive semi-definite and its main diagonal contains variances (i.e., the covariance of each element with itself). Intuitively, the covariance matrix generalizes the notion of variance to multiple dimensions.
Operator theoryIn mathematics, operator theory is the study of linear operators on function spaces, beginning with differential operators and integral operators. The operators may be presented abstractly by their characteristics, such as bounded linear operators or closed operators, and consideration may be given to nonlinear operators. The study, which depends heavily on the topology of function spaces, is a branch of functional analysis. If a collection of operators forms an algebra over a field, then it is an operator algebra.
Covariance functionIn probability theory and statistics, the covariance function describes how much two random variables change together (their covariance) with varying spatial or temporal separation. For a random field or stochastic process Z(x) on a domain D, a covariance function C(x, y) gives the covariance of the values of the random field at the two locations x and y: The same C(x, y) is called the autocovariance function in two instances: in time series (to denote exactly the same concept except that x and y refer to locations in time rather than in space), and in multivariate random fields (to refer to the covariance of a variable with itself, as opposed to the cross covariance between two different variables at different locations, Cov(Z(x1), Y(x2))).
CovarianceEn théorie des probabilités et en statistique, la covariance entre deux variables aléatoires est un nombre permettant de quantifier leurs écarts conjoints par rapport à leurs espérances respectives. Elle s’utilise également pour deux séries de données numériques (écarts par rapport aux moyennes). La covariance de deux variables aléatoires indépendantes est nulle, bien que la réciproque ne soit pas toujours vraie. La covariance est une extension de la notion de variance.
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Opérateur (mathématiques)En mathématiques et en physique théorique, un opérateur est une application entre deux espaces vectoriels topologiques. Soient E et F deux espaces vectoriels topologiques. Un opérateur O est une application de E dans F : Opérateur linéaire Un opérateur est linéaire si et seulement si : où K est le corps des scalaires de E et F. Lorsque E est un -espace vectoriel, et que (c'est un corps), un opérateur est une forme linéaire sur E.
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Endomorphisme autoadjointEn mathématiques et plus précisément en algèbre linéaire, un endomorphisme autoadjoint ou opérateur hermitien est un endomorphisme d'espace de Hilbert qui est son propre adjoint (sur un espace de Hilbert réel on dit aussi endomorphisme symétrique). Le prototype d'espace de Hilbert est un espace euclidien, c'est-à-dire un espace vectoriel sur le corps des réels, de dimension finie, et muni d'un produit scalaire. L'analogue sur le corps des complexes s'appelle un espace hermitien.
Spectre d'un opérateur linéaireEn mathématiques, plus précisément en analyse fonctionnelle, le spectre d'un opérateur linéaire sur un espace vectoriel topologique est l'ensemble de ses valeurs spectrales. En dimension finie, cet ensemble se réduit à l'ensemble des valeurs propres de cet endomorphisme, ou de sa matrice dans une base. En et en mécanique quantique, la notion de spectre s'étend aux opérateurs non bornés fermés. Soit une algèbre de Banach unifère sur le corps des nombres complexes.