Ratio distributionA ratio distribution (also known as a quotient distribution) is a probability distribution constructed as the distribution of the ratio of random variables having two other known distributions. Given two (usually independent) random variables X and Y, the distribution of the random variable Z that is formed as the ratio Z = X/Y is a ratio distribution. An example is the Cauchy distribution (also called the normal ratio distribution), which comes about as the ratio of two normally distributed variables with zero mean.
Weighted least squaresWeighted least squares (WLS), also known as weighted linear regression, is a generalization of ordinary least squares and linear regression in which knowledge of the unequal variance of observations (heteroscedasticity) is incorporated into the regression. WLS is also a specialization of generalized least squares, when all the off-diagonal entries of the covariance matrix of the errors, are null.
Total sum of squaresIn statistical data analysis the total sum of squares (TSS or SST) is a quantity that appears as part of a standard way of presenting results of such analyses. For a set of observations, , it is defined as the sum over all squared differences between the observations and their overall mean .: For wide classes of linear models, the total sum of squares equals the explained sum of squares plus the residual sum of squares. For proof of this in the multivariate OLS case, see partitioning in the general OLS model.
Centilethumb|Définition du 95e centile d'une loi de Fisher-Snedecor En statistique descriptive, un centile (ou percentile) est une des 99 valeurs qui divisent une distribution de données en 100 parts égales de sorte que le p-ième centile soit la valeur supérieure à p % des autres valeurs. Les centiles sont un cas particulier des quantiles. Voir l'article "quantile" pour les méthodes. Un centile est calculé en tant que 100-quantile.
Loi de probabilité marginaleEn théorie des probabilités et en statistique, la loi marginale d'un vecteur aléatoire, c'est-à-dire d'une variable aléatoire à plusieurs dimensions, est la loi de probabilité d'une de ses composantes. Autrement dit, la loi marginale est une variable aléatoire obtenue par « projection » d'un vecteur contenant cette variable. Par exemple, pour un vecteur aléatoire , la loi de la variable aléatoire est la deuxième loi marginale du vecteur. Pour obtenir la loi marginale d'un vecteur, on projette la loi sur l'espace unidimensionnel de la coordonnée recherchée.
Propagation des incertitudesUne mesure est toujours entachée d'erreur, dont on estime l'intensité par l'intermédiaire de l'incertitude. Lorsqu'une ou plusieurs mesures sont utilisées pour obtenir la valeur d'une ou de plusieurs autres grandeurs (par l'intermédiaire d'une formule explicite ou d'un algorithme), il faut savoir, non seulement calculer la valeur estimée de cette ou ces grandeurs, mais encore déterminer l'incertitude ou les incertitudes induites sur le ou les résultats du calcul.
Loi de WishartEn théorie des probabilités et en statistique, la loi de Wishart est la généralisation multidimensionnelle de la loi du χ2, ou, dans le cas où le nombre de degré de libertés n'est pas entier, de la loi gamma. La loi est dénommée en l'honneur de John Wishart qui la formula pour la première fois en 1928. C'est une famille de lois de probabilité sur les matrices définies positives, symétriques. Une variable aléatoire de loi de Wishart est donc une matrice aléatoire.
BiometrikaBiometrika est une revue scientifique britannique de statistique théorique. Biometrika a été créée en 1901 par Francis Galton, Karl Pearson et Walter Weldon afin de promouvoir la biométrie, l’analyse statistique de phénomènes biologiques. À partir des années 1930, Biometrika se transforme cependant en revue de statistique théorique et de méthodologie. 1901: Création par Walter Weldon, Francis Galton et Karl Pearson, avec Weldon, Pearson et Charles Davenport comme rédacteurs.