Loi de probabilité marginaleEn théorie des probabilités et en statistique, la loi marginale d'un vecteur aléatoire, c'est-à-dire d'une variable aléatoire à plusieurs dimensions, est la loi de probabilité d'une de ses composantes. Autrement dit, la loi marginale est une variable aléatoire obtenue par « projection » d'un vecteur contenant cette variable. Par exemple, pour un vecteur aléatoire , la loi de la variable aléatoire est la deuxième loi marginale du vecteur. Pour obtenir la loi marginale d'un vecteur, on projette la loi sur l'espace unidimensionnel de la coordonnée recherchée.
Estimation of covariance matricesIn statistics, sometimes the covariance matrix of a multivariate random variable is not known but has to be estimated. Estimation of covariance matrices then deals with the question of how to approximate the actual covariance matrix on the basis of a sample from the multivariate distribution. Simple cases, where observations are complete, can be dealt with by using the sample covariance matrix.
Erreur quadratique moyenneEn statistiques, l’erreur quadratique moyenne d’un estimateur d’un paramètre de dimension 1 (mean squared error (), en anglais) est une mesure caractérisant la « précision » de cet estimateur. Elle est plus souvent appelée « erreur quadratique » (« moyenne » étant sous-entendu) ; elle est parfois appelée aussi « risque quadratique ».
Milieu de gamme (statistique)En statistique, le milieu de gamme ou le milieu extrême d'un ensemble de valeurs de données statistiques est la moyenne arithmétique des valeurs maximales et minimales dans un ensemble de données, défini comme: Le milieu de gamme est le point médian de la gamme ; en tant que tel, c'est une mesure de la tendance centrale. Le milieu de gamme est rarement utilisé dans l'analyse statistique pratique, car il manque d'efficacité en tant qu'estimateur pour la plupart des distributions d'intérêt, car il ignore tous les points intermédiaires et manque de robustesse, car les valeurs aberrantes le modifient considérablement.
Probabilité a prioriDans le théorème de Bayes, la probabilité a priori (ou prior) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior) correspondante qui s'appuie sur les connaissances postérieures à cette observation. Le théorème de Bayes s'énonce de la manière suivante : si . désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .
Théorème de Gauss-MarkovEn statistiques, le théorème de Gauss–Markov, nommé ainsi d'après Carl Friedrich Gauss et Andrei Markov, énonce que dans un modèle linéaire dans lequel les erreurs ont une espérance nulle, sont non corrélées et dont les variances sont égales, le meilleur estimateur linéaire non biaisé des coefficients est l'estimateur des moindres carrés. Plus généralement, le meilleur estimateur linéaire non biaisé d'une combinaison linéaire des coefficients est son estimateur par les moindres carrés.
Ratio distributionA ratio distribution (also known as a quotient distribution) is a probability distribution constructed as the distribution of the ratio of random variables having two other known distributions. Given two (usually independent) random variables X and Y, the distribution of the random variable Z that is formed as the ratio Z = X/Y is a ratio distribution. An example is the Cauchy distribution (also called the normal ratio distribution), which comes about as the ratio of two normally distributed variables with zero mean.
Probabilité a posterioriDans le théorème de Bayes, la probabilité a posteriori désigne la probabilité recalculée ou remesurée qu'un évènement ait lieu en prenant en considération une nouvelle information. Autrement dit, la probabilité a posteriori est la probabilité qu'un évènement A ait lieu étant donné que l'évènement B a eu lieu. Elle s'oppose à la probabilité a priori dans l'inférence bayésienne. La loi a priori qu'un évènement ait lieu avec vraisemblance est .
Filtre de WienerLe filtre de Wiener est un filtre utilisé pour estimer la valeur désirée d'un signal bruité. Le filtre de Wiener minimise l'erreur quadratique moyenne entre le processus aléatoire estimé et le processus souhaité. Norbert Wiener a d'abord proposé le filtre dans les années 1940, puis publié en 1949. Vers la même époque Andreï Kolmogorov travaillait sur des filtres similaires. Le filtre de Wiener a une variété d'applications de traitement du signal, traitement d'image, des systèmes de contrôle et de la communication numérique.
État stationnaireEn physique, un procédé est dit à l'état stationnaire ou en régime stationnaire si les variables le décrivant ne varient pas avec le temps. Mathématiquement un tel état se définit par: quelle que soit propriété du système (significative dans la présente perspective). Un exemple de procédé stationnaire est un réacteur chimique dans une phase de production continue. Un tel système travaille à température, à concentrations (réactifs et produits) et à volume constants ; en revanche, la couleur ou la texture du milieu peuvent être non-significatives.